La próxima ola de uso de inteligencia artificial no sólo sobrecargará los centros de datos y las redes eléctricas , sino que también pondrá a prueba las capacidades de red del país.
Esto se debe a que más personas usarán chatbots y agentes de IA , que a su vez hablarán con aún más agentes de IA, y todo eso requiere más datos, computación y sistemas de tecnología de back-end como redes.
La red se considera la “tubería” que mueve datos y aplicaciones dentro y entre centros de datos, así como entre centros de datos y dispositivos conectados a Internet.
“La cantidad de tráfico que se inicia y se seguirá generando con la IA, cuando se ingresa a un entorno de máquina a máquina, esa cantidad de tráfico será monumental”, dijo Chris Sharp , director de tecnología del operador de centros de datos Digital Realty .
El gigante de chips Nvidia , el fabricante de equipos de red Cisco , los proveedores de centros de datos y los operadores y centros de intercambio de Internet como Lumen Technologies y DE-CIX están considerando oportunidades en una renovación de la red, que podría incluir actualizaciones de equipos, nuevas herramientas de software y trabajo con proveedores de red para aumentar la capacidad y la capacidad.
La semana pasada, Cisco informó menores ingresos y ganancias trimestrales, pero señaló que la demanda de infraestructura impulsó sus resultados .
Se prevé que el mercado global de redes para centros de datos, valorado en 34.610 millones de dólares, alcance los 118.940 millones de dólares para 2033, según la firma de investigación de mercado Straits Research. Las ventas de conmutadores para centros de datos, que enrutan el tráfico, podrían casi duplicarse en los próximos años, y las de conmutadores back-end, que conectan chips de IA, podrían cuadruplicarse, según BNP Paribas .
Se espera que la inversión empresarial global solo en conmutadores de centros de datos de IA mejorados (que pueden manejar más datos que los conmutadores tradicionales) crezca de 127,2 millones de dólares este año a 1.000 millones de dólares en 2027, según International Data Corp.
La Asociación Estadounidense de Seguros y Rentas Vitalicias para Maestros está implementando mejoras de red para priorizar la IA , afirmó Sastry Durvasula, director de operaciones, información y tecnología digital de la gestora de fondos. «La naturaleza de las cargas de trabajo de la IA lo exige», añadió Durvasula, «y el panorama competitivo lo exige».
El entrenamiento y el uso de modelos de IA generativa requieren mayor movimiento de datos (conocido como alto ancho de banda) a mayor velocidad (conocido como menor latencia) que otros tipos de tráfico de internet. “Son más datos de los que las redes de transporte han tenido que transportar en el pasado”, afirmó Chris Downie , director ejecutivo del proveedor de centros de datos Flexential.
También es necesario actualizar una red (o crear una red dedicada) para soportar un gran número de unidades de procesamiento de gráficos o GPU, el hardware que consume muchos recursos y se utiliza principalmente para entrenar y ejecutar IA.
Los costos se agravan debido al alto costo de los equipos nuevos. Algunos conmutadores compatibles con IA cuestan al menos cinco veces más que los conmutadores tradicionales para centros de datos, cuyo precio puede oscilar entre unos cientos y miles de dólares, según estimaciones de analistas. Otros equipos para actualizaciones podrían incluir enrutadores y software, herramientas de ciberseguridad y automatización, todos los cuales pueden contribuir a la habilitación de una nueva red para IA.
Nvidia también desarrolla una plataforma de redes llamada InfiniBand para transferir grandes cantidades de datos entre GPUs Nvidia dentro y entre centros de datos. Ethernet, una plataforma competidora considerada menos desarrollada para redes de IA, se utiliza más ampliamente en todo tipo de centros de datos y cuenta con un mayor número de proveedores que venden equipos compatibles, según IDC.
xAI de Elon Musk anunció recientemente la construcción de un “clúster” de supercomputadoras con 100.000 GPU Nvidia en Memphis, Tennessee, para entrenar y entregar sus modelos de IA. El centro de datos que alberga la supercomputadora (ambas construidas en tan solo 122 días) utiliza Spectrum-X, la plataforma de red de Nvidia basada en Ethernet en lugar de InfiniBand, según Nvidia.
Aun así, la esperada actualización de la red de IA no está llegando a todas las empresas a la vez.
Existe una amplia gama de empresas que aún experimentan con IA, afirmó Kevin Wollenweber, vicepresidente sénior y director general del grupo de redes de Cisco, y es probable que estas empresas comiencen con la nube y aumenten el uso de centros de datos privados posteriormente.
Muchos líderes en tecnología empresarial también están capacitando o utilizando modelos de IA en la nube, en lugar de en sus propios centros de datos. Esto implica que sus proveedores de servicios en la nube tienen la responsabilidad de actualizar la capacidad de la red. Muchos de estos proveedores, como Microsoft y Amazon , han invertido miles de millones de dólares en la construcción de sus propios centros de datos con GPU y redes compatibles con IA.
Wayfair se basa principalmente en la plataforma en la nube de Google, por lo que no necesita realizar ajustes específicos de IA, afirmóFiona Tan, directora de tecnología de la tienda de muebles en línea. Sin embargo, si las necesidades de Wayfair superan lo que Google u otras empresas pueden ofrecer, podría explorar sus propias opciones de red, añadió Tan.
Kate Johnson, presidenta y directora ejecutiva del operador de internet Lumen, afirmó que no sorprende que las grandes tecnológicas estén construyendo primero sus centros de datos de IA. Lumen cerró recientemente acuerdos por 5000 millones de dólares para proporcionar conectividad de fibra óptica a los centros de datos de IA de Microsoft. La compañía también tiene un acuerdo para proporcionar conectividad a la infraestructura de IA de Meta Platforms .
En la próxima ola, que se llevará a cabo dentro de unos años, las grandes empresas comenzarán a construir sus propios centros de datos privados para entrenar y ejecutar IA, en lugar de usar IA únicamente a través de las principales plataformas en la nube , afirmó Johnson.
Algunos ya lo han logrado. La firma de servicios digitales y consultoría Infosys cuenta con su propio “clúster” de GPU para desarrollar y entrenar modelos de IA de tamaño pequeño y mediano , según el director de tecnología Rafee Tarafdar. También posee GPU y unidades centrales de procesamiento (CPU) para ejecutar modelos de IA. Toda esa infraestructura, incluidas las redes, necesita actualizarse periódicamente, afirmó.
Las empresas que se toman en serio la implementación de la IA en sus procesos de negocio se tomarán en serio sus requisitos de red, afirmó Naveen Chhabra, analista principal de Forrester . «Pueden ver claramente, digamos dentro de tres años, que podría ser uno de sus talones de Aquiles si no se aborda desde el principio», afirmó.