Congestión TCP: peligro inminente

Aprendamos del pasado: en 1986 lo que pocos conocían por aquel entonces como Internet estaba comenzando a colapsarse. La pila de protocolos existentes en la que se basaban las comunicaciones entre máquinas no podía soportar la congestión de paquetes TCP que iban de un lado a otro, y muchas comunicaciones no funcionaban bien.

Van Jacobson, un ingeniero informático que contribuyó a la creación de esa pila de protocolos, desarrolló una solución para la congestión: ralentizar el flujo de la transmisión a la mitad en cuanto se detectará pérdida de paquetes. La medida fue aplicada en todas las máquinas de aquel entonces, y el parche se integró en una pila de protocolos que ha llegado a nuestros días, pero hoy el algoritmo que entonces se bautizó como AIMD (Additive Increase Multiplicative Decrease) está volviéndose a poner en tela de juicio debido a una verdadera glotona del ancho de banda: la filosofía P2P.

Al menos eso es lo que afirman los expertos, que creen que el trasiego de datos que imponen estas redes están volviendo a producir ese efecto de ‘congestión TCP’ tan temido. Sus consecuencias podrían ser fatales tal y como están ahora las comunicaciones en el planeta y la gran dependencia que muchas transacciones tienen en Internet, y precisamente de este hecho es de lo que tratan de avisar los expertos. Existe ya una solución propuesta por Bob Briscoe hace uso del llamado ‘weighted TCP’ (algo así como ‘TCP equilibrado’ o ‘balanceado’) en lugar del protocolo convencional, pero su parche no ha sido del todo aceptado. De hecho, las principales defensoras del P2P no están completamente de acuerdo con esta medida, que podría perjudicar el funcionamiento de estas trasnferencias. Sin embargo, parece mucho más importante hacer que no se produzca congestión TCP.

vINQulos

ZDNet