Internet es un modelo de éxito en el desarrollo de servicios digitales que ha permitido una ola de innovación que difícilmente habría podido ser igualada si no se hubieran desacoplado las redes de telecomunicaciones del desarrollo de dichos servicios. Por eso se les denomina comúnmente como servicios over-the-top.
Mientras que, por un lado, los operadores de telecomunicaciones se concentraban en proporcionar más capacidad y más velocidad para el tráfico que dichos servicios digitales, pasando desde los primeros módems que funcionaban sobre redes de cobre a las actuales redes de fibra-óptica-hasta-el-hogar (FTTH) como la que disfrutamos hoy día en nuestro país, por el otro lado, los desarrolladores de servicios digitales encontraban la manera de aprovechar dichos incrementos de las capacidades de red para ofrecer nuevos servicios, que allá a finales del siglo pasado eran difícilmente imaginados salvo por algunos (pocos) visionarios. No es necesario repasarlos pues el lector seguro que ha vivido su evolución desde aquellas primeras experiencias con el uso del email.
Sin embargo, este desacoplamiento no significa que a los desarrolladores de los servicios digitales no les importara la calidad de la red de Internet. Más bien todo lo contrario. Tenían firmemente en cuenta este aspecto pues de ello dependía en gran medida la experiencia que podían ofrecer a sus usuarios.
Una de las claves del desarrollo tan vertiginoso de Internet es, sin duda, que esta se ha configurado con una red de redes interconectadas. La relación entre estas redes se ha regido por el principio de best effort (haré lo posible con el tráfico que me entregues para llevarlo a su destino), pero sin compromisos de calidad. Y así continúa siendo actualmente.
Pronto se vio que, para los servicios más avanzados, los que demandaban mayor calidad, las condiciones que podían ofrecer las redes de Internet no eran suficientes para atender las necesidades y demanda de dichos servicios conectándose únicamente a un punto de Internet y confiando en que el tráfico llegara hasta el servidor. Por eso, se comenzaron a descentralizar los servidores de dichos servicios a lo largo de distintas geografías. Con ello se conseguía disminuir la capacidad de proceso unitario de dichos servidores y, además, se aumentaba la calidad percibida por los usuarios pues el servicio no debía cruzar todo Internet para llegar a su destino.
Este fenómeno de acercamiento del contenido al usuario generó la aparición de un nuevo rol en Internet, las Content Delivery Networks o CDNs, que se componen de una red de servidores donde se almacena y ejecuta los servicios que demandan los usuarios de manera transparente a los mismos (los usuarios no son conscientes de si usan una CDN o no). Es un servicio B2B que gestó un modelo de negocio sobre Internet en el que los usuarios no participaban directamente, sino que era pagado por los proveedores de contenido para que terceros les ejecutaran sus programas y/o les realizaran el streaming de vídeo. Posteriormente, en algunos servicios se justificó la auto provisión de CDNs privadas.
En definitiva, Internet ha buscado la manera de superar las limitaciones en términos de retardo de la señal derivadas de una red de redes basada en interconexiones best effort, que no podían comprometer calidad.
Y ahora llega el metaverso. Al margen de las diferentes definiciones que de esta palabra se pueden encontrar en Internet, todas ellas coinciden en que se va a necesitar dar un salto sustancial en términos de retardo. Esto se debe a que la fidelidad con el comportamiento del mundo físico en el mundo virtual debe ser extrema para una experiencia satisfactoria, especialmente cuando se espera interactuar en tiempo real con otros.
Dos opciones se plantean como posibles: seguir con la técnica de acercar aún más los contenidos y aplicaciones al usuario o mejorar las prestaciones de las redes de telecomunicaciones que componen Internet.
La primera de ellas, que pretende usar Internet siguiendo el principio de best effort, ya se está experimentando. Es el caso de las gafas de realidad virtual, que combina el procesamiento en el propio dispositivo apoyándose y en la nube (cloud computing). Si bien actualmente están pudiendo ofrecer experiencias novedosas, empiezan a mostrar sus limitaciones debido al peso, tamaño, capacidad de proceso de los dispositivos, duración de la batería, etc. que, además, se verán agravadas si pretendemos experimentar el metaverso fuera de casa (on the move)
La segunda se basa en utilizar las capacidades EDGE que las redes de telecomunicaciones pueden ofrecer, tanto en las redes fijas FTTH como en las redes móviles 5G. Gracias a las capacidades de Edge computing, Edge cloud y network slicing se podrán acercar más los contenidos y aplicaciones al usuario sin estresar los dispositivos que éste use. Además, se añade la predictibilidad de cuál va a ser la calidad que el tramo de red final va a ofrecer, algo especialmente relevante para la experiencia fuera del hogar.
Igualmente, para facilitar la incorporación de estas capacidades que las nuevas redes ofrecen a los desarrolladores, los operadores de telecomunicaciones estamos trabajando en el desarrollo y estandarización de APIs para que éstos las puedan incorporar fácilmente en el propio código fuente de sus desarrollos. Así, las redes de telecomunicaciones se comportarán de manera automática y agnóstica al servicio final que se ofrece al usuario. Es lo que llamamos Network as a Service (NaaS).
Si comparamos ambas soluciones, la primera intenta estirar lo máximo posible el actual modelo de Internet. Mientras, la segunda imita el movimiento que se ha producido en Internet a lo largo de su trayectoria de mejora de la calidad de los servicios digitales, incorporando capacidades en la red. Probablemente la virtud se encuentre en una combinación de ambas.
Eusebio Felguera Garrido, Gerente de Políticas Públicas Digitales de Telefónica y miembro del Grupo de Blockchain de Autelsi.
Deja tu comentario