A medida que crece el uso de inteligencia artificial (IA), el entrenamiento de los modelos de IA está colocando enormes tensiones en las redes y en ningún lugar más que en los centros de datos, con la investigación de la compañía de tecnología Ciena descubriendo que el crecimiento masivo y rápido de la IA impulsará un aumento significativo en las necesidades de ancho de banda de interconexión en los próximos cinco años.
En enero de 2025, la encuesta, realizada en asociación con Censuswide, consultó a más de 1.300 tomadores de decisiones de datos de datos en 13 países responsables de planificar o comprar infraestructura del centro de datos. Los mercados cubiertos fueron Estados Unidos, Reino Unido, Alemania, KSA, Noruega, Suecia, Australia, Corea, India, Filipinas, Indonesia, Brasil y México.
La encuesta encontró que el 53%de los encuestados esperan que las cargas de trabajo de IA colocen la mayor demanda de la infraestructura de interconexión de la intervención de datos de datos (DCI) en los próximos dos a tres años, superando la computación en la nube (51%) y el análisis de big data (44%).
Para satisfacer las demandas de IA tan crecientes, se espera que el 43% de las nuevas instalaciones de centros de datos se dediquen a las cargas de trabajo de IA. Además, con el entrenamiento de modelos de IA e inferencia que requieren un movimiento de datos sin precedentes, los expertos en el centro de datos predijeron no menos que un salto “masivo” en las necesidades de ancho de banda. Además, cuando se le preguntó sobre el rendimiento necesario de la capacidad de fibra óptica para DCI, el 87% de los participantes creen que necesitarán 800 Gbps o más por longitud de onda.
Se dijo que los encuestados han revelado una oportunidad creciente para la óptica conectable para apoyar las demandas de ancho de banda y abordar los desafíos de poder y espacio. Según la encuesta, el 98% de los expertos en el centro de datos creen que la óptica conectable es importante para reducir el consumo de energía y la huella física de su infraestructura de red.
La encuesta encontró que, a medida que los requisitos para el cálculo de IA continúen aumentando, la capacitación de modelos de idiomas grandes (LLM) se distribuirá más en diferentes centros de datos de IA. Alrededor del 81% de los encuestados cree que la capacitación de LLM tendrá lugar en algún nivel de instalaciones de centros de datos distribuidos, lo que requerirá que las soluciones DCI se conecten entre sí.
En lugar de implementar la fibra oscura, la mayoría (67%) de los encuestados esperan usar redes de fibra óptica administradas (MOFN), que utilizan redes de alta capacidad operadas por el transportista para la conectividad de datos de datos de larga distancia.
Cuando se les preguntó sobre los factores clave que conforman dónde se implementará la inferencia de IA, los encuestados clasificaron las siguientes prioridades: la utilización de recursos de IA a lo largo del tiempo es la prioridad máxima (63%); reduciendo la latencia colocando la inferencia calculando más cerca de los usuarios en el borde (56%); Requisitos de soberanía de datos (54%); y ofrecer ubicaciones estratégicas para clientes clave (54%).
“Las cargas de trabajo de IA están remodelando todo el panorama de los centros de datos, desde las construcciones de infraestructura hasta la demanda de ancho de banda.
“La revolución de la IA no se trata solo de calcular: se trata de conectividad.