Saturación de la Red: ¿Hay motivos para preocuparnos?

Alejandro Delgado

Director de área de Telecomunicaciones, Medios y Nuevas Tecnologías de Parra, Rodríguez & Cavelier

Es abogado de la Universidad de los Andes; cursó la especialización de Derecho de las Telecomunicaciones en la Universidad del Rosario (Colombia). Máster en Derecho y Negocio de las Telecomunicaciones, Internet y Audiovisual en Madrid, actualmente es el Director del Área de Telecomunicaciones, Medios y Nuevas Tecnologías de la firma Parra, Rodríguez & Cavelier en Bogotá, además de tener un blog en la edición virtual de la Revista Poder y otro personal.

La saturación de la infraestructura que soporta Internet cobra cada vez más importancia, tanto desde el punto de vista de los operadores de telecomunicaciones, las políticas públicas de la Sociedad de la Información como desde el punto de vista del usuario.

El
tránsito mundial, estimado a 2400 Po. (petaoctetos) por mes
en 2006, está destinado a un fuerte aumento: las previsiones
de la empresa Cisco
para 2011 se acercan a más de 10.700 Po. por mes, es decir 4
veces más que en 2006.

Un
estudio realizado por la empresa Nemertes
Research
, especializada en tecnología, advierte
que, en los próximos 3 años, Internet podría
saturarse por la demanda provocando cortes en el servicio.

Por
su parte AT&T
asegura que, sin inversión en infraestructura, la actual
arquitectura de red alcanzará su límite para el
año 2010, necesitando de una inversión de $130 billones
de dólares para mejorar la red a nivel global.

Con
100 millones de vídeos en línea, YouTube
es la más grande videoteca del mundo. También es un
importante consumidor de espacio: en 2006, con 27 Po., ( 27 millones
de Go. –gigaoctectos) por mes, el sitio equivale al tránsito
total que se produjo en Internet en el año 2000.

En
efecto, el hecho de bajar películas, videojuegos,
soporte en línea, VoIP (voz sobre IP), etiquetas
RFID
y el uso de audio y vídeo en streaming parece
estar inundando las redes de telecomunicaciones.

Ahora
los contenidos creados por los usuarios generan un tráfico
nunca antes visto, sin sumar la cantidad de banda ancha que
implica la proliferación a corto tiempo de los vídeos
de Alta Definición
(HD en inglés), que consume 7 a
10 veces más de banda ancha que el video tradicional en la
red.

Entre
2007 y 2011, se prevee que la televisión por medio de
Internet, llamada IPTV, se multiplicará por 10.

Un
ejemplo de lo que puede ocurrir a medio plazo es la cantidad de vídeo
en streaming
que se puede utilizar a la vez en la posesión
presidencial de Obama. Según Cisco Systems, para
el año 2012 el tráfico de video en Internet será
400 veces el tráfico en Estados Unidos en el año 2000
y, junto con el vídeo bajo demanda, IPTV y el P2P,
se pronostica que acaparará el 90% del consumo del tráfico
IP
de ese año.

Esto
sin olvidar que, aunque ya hay mas de 1.500 millones de usuarios de
Internet en el mundo, las tasas de penetración de banda
ancha
siguen teniendo tendencias a la alza.

Según
el estudio ‘La
expansión del universo digital’
, elaborado
por IDC
y EMC,
la cantidad de información digital disponible en el
mundo arroja un promedio de 45 GB por cada habitante de la Tierra. Se
calcula que en 2011 el universo digital será seis veces mayor
al actual (1.800 exabytes), es decir, que el promedio por persona
podría ser 270 GB.

El
problema radica en que las redes actuales se están quedando
cortas para la demanda de banda ancha que exigen las nuevas
aplicaciones en Internet. Como bien mencionó la revista

Technology
Review
, un artículo de revista es leído
en Internet en 6 minutos. Ver “the evolution of dance
también requiere 6 minutos, pero requiere bajar 100 veces mas
datos.

Hay
que tener en cuenta que el principal inconveniente no está en
las superautopistas, sino en los routers de Internet,
que es donde se decide por qué fibra se dirigen los
datos. Si muchos paquetes de datos llegan a la vez a dicha
intersección, se pueden presentar problemas de congestión.
El problema se incrementa cuando se transmite por streaming.

Teniendo
en cuenta que el uso de contenidos y aplicativos cada vez mas
“pesados” en Internet es un hecho y que seguirá siendo
exponencial a medida que haya más penetración de banda
ancha, la solución a largo plazo sería que los
proveedores de Internet inviertan en las llamadas redes de
nueva generación
. Sin embargo, ello implica una inversión
que pocos se pueden dar el gusto de realizar, no sólo por las
condiciones económicas que ello implica, sino por el marco
regulatorio actual
en varias partes del mundo.

La
solución provisional parece que pasará porque
los proveedores controlen el intenso tráfico de la red y
limiten las descargas de archivos. Para ello, existen varias
opciones: o bien cobrar por el gigabyte o por el uso
adicional de banda ancha
, o limitar el uso de algunos servicios
que pasan por sus redes.

La
operadora de telecomunicaciones estadounidense Comcast
Corporation
ya se ha puesto manos a la obra para
controlar el tráfico limitando el acceso a algunos
usuarios que utilicen abusivamente la banda ancha. Por su parte, Time
Warner Cable
está probando limitaciones
mensuales del ancho de banda
, medidas criticadas por la Federal
Communications Commission
(FCC).

Otra
opción planteada en un informe de Deloitte
es la aplicación de la inteligencia a la red, lo que
significaría conseguir optimizar el uso del ancho de banda,
priorizando el tráfico de la red en función de su
contenido y del perfil del usuario.

Otra aproximación
que los ISP’s están tomando del tema es cooperando
con las redes de P2P para compartir los datos mas eficientemente.

Dicho
esquema, denominado “Provider Portal for Applications” (P4P), es un estándar abierto y voluntario donde los ISP`s
comparten cierta información sobre sus redes con los
servidores P2P. El resultado es claro: mejoras en la velocidad de
transmisión
y menor banda de ancha utilizada. Mas
allá de los problemas legales que enfrentan los ISP a nivel de
su responsabilidad por los contenidos que circulan en sus redes, es
un intento interesante de mejorar la infraestructura existente.

¿Nos
encontraremos frente a una saturación de la red total
? Es
muy poco probable. Sin embargo, las conexiones lentas podrían
recordarnos la época inicial de Internet.

Mas allá de las
limitaciones del tráfico en Internet, es vital un marco
regulatorio
que permita cuanto antes hacer las inversiones de
infraestructura necesarias no sólo para evitar la saturación
de Internet, sino para permitir el desarrollo de las aplicaciones que
sobre la Red se están haciendo. De lo contrario, podríamos
desincentivar la innovación olvidándonos de nuevas
empresas que podrían alzcanzar la importancia que hoy tienen
algunas otras como Amazon,
Google y YouTube.

Para Nemertes,
a pesar de la amplitud de las sumas preconizadas, las inversiones en
infraestructura son tranquilamente realizables para un sector donde
el mercado mundial superó, en 2007, los mil millones de euros.

Sin
embargo, las dos opciones actuales (inversión en redes de
nueva generación y la limitación de ancho de banda)
tienen problemas que deben ser solucionados.

La
inversión en redes de nueva generación necesita un
impulso regulatorio urgente que permita a los grandes
operadores tener cierta confianza en la recuperación de dichas
inversiones. Sin embargo, para lograrlo deberán ser más
que simples operadores de telecomunicaciones, lo que, junto con el
hecho de la discriminación de paquetes en la segunda
opción actual, como es la limitación de ancho de banda,
nos lleva al intenso debate de la neutralidad de red.

En
efecto, los ISP’s tendrían la posibilidad de discriminar
paquetes a favor de sus propios usuarios, en detrimento de sus
competidores. Una posibilidad para mitigar el impacto de dicha medida
puede ser cobrarles a los usuarios que utilizan cierto límite
de ancho de banda un cargo adicional. Y ¿los hábitos
de consumo de los internautas
?.

En
efecto, después de más de 10 años de acceso
ilimitado, es probable que no vean con buenos ojos que los
proveedores de Internet bloqueen o limiten su acceso a contenidos o
aplicaciones en la Red.

Nos
encontramos frente a un reto vital para el desarrollo de la actual “sociedad tecnológica mundial”. Un reto del que
veremos muchas noticias durante el 2009, especialmente relacionadas a
la regulación de las redes de nueva generación, el gran
salvavidas de la saturación de la Red

alejandro.delgado@prc-laws.com

Categorias: Nacional

Etiquetas:

6s Comentarios

  1. ¿RFID?, y digo yo… ¿Que tendrán que ver los cojones para comer trigo? Ni que ahora las etiquetas RFID ocupasen gigabytes de información, vamos, no me fastidies.

    ¿Que proliferan ahora los videos en HD? Claro que proliferan. También las redes van de 7 a 10 veces más rápido, y o por cuestión de magia, sino porque la tecnología avanza. A mí me parece otra “bola” de las del tipo “¿Te va mal el adsl? es que Internet esta saturao…?

  2. Pues nada que, en vez de mejorar las infraestructuras que es lo suyo, “peatonalicen” internet. Al fin y al cabo es lo que están haciendo en las ciudades para solucionar los “problemas” de aumento del tráfico.
  3. Pues yo estaría dispuesto a colaborar para reducir el tráfico en internet usando algo menos el P2P si me hicieran una rabaja en mi factura de adsl, pero mientras me sigan clavando como hasta ahora nanai, y si se les ocurre cobrarme más por usar p2p me cambio de operadora.
  4. A mi me suena a corta/pega. Ejemplo:

    AT&T asegura que, sin inversión en infraestructura, la actual arquitectura de red alcanzará su límite para el año 2010, necesitando de una inversión de $130 billones de dólares para mejorar la red a nivel global.

    las inversiones en infraestructura son tranquilamente realizables para un sector donde el mercado mundial superó, en 2007, los mil millones de euros.

    $130 Billones = 130.000.000.000.000 > 1.000.000.000 = €1000 millones

    aclaremonos, hay pasta, o no la hay? A mi no me salen los números 🙂

  5. pero qqqq!?
    lo q kieren esq destruir la pirateria. pero la pirateria existira hasta que las compras no se vuelvan mas baratas.
    nos roban a todos y se forran por ello.