Noticias de que ARM se está embarcando en desarrollar sus propios procesadores de centros de datos para Meta, como se informa en el Financial Timeses indicativo del movimiento del diseñador de chips para capitalizar el apetito de la industria tecnológica por la inteligencia artificial (IA) asequible y eficiente en la energía.
Los hiperscalers y los gigantes de las redes sociales, como meta usan amplias conjuntos de unidades de procesamiento de gráficos costosos (GPU) para ejecutar cargas de trabajo que requieren aceleración de IA. Pero junto con el costo, las GPU tienden a usar mucha energía y requieren inversión en infraestructura de enfriamiento líquido.
Meta ve a la IA como una iniciativa de tecnología estratégica que abarca sus plataformas, incluidos Facebook, Instagram y WhatApp. El CEO Mark Zuckerberg está posicionando a Meta AI como la inteligencia artificial que todos usarán. En la última llamada de ganancias de la compañía, dijo: “En AI, espero que este sea el año en que un asistente de IA altamente inteligente y personalizado llega a más de mil millones de personas, y espero que Meta AI sea ese asistente líder de IA. “
Para alcanzar este volumen de personas, la compañía ha estado trabajando para escalar su infraestructura de IA y planea migrar de la aceleración de IA basada en GPU a chips de silicio personalizados, optimizados para sus cargas de trabajo y centros de datos.
Durante la llamada de ganancias, la directora financiera de Meta, Susan Li, dijo que la compañía estaba “muy invertida en desarrollar nuestro propio silicio personalizado para cargas de trabajo únicas, donde el silicio listo para usar no es necesariamente óptimo”.
En 2023, la compañía comenzó una empresa a largo plazo llamada meta capacitación e acelerador de inferencia (MTIA) para proporcionar la arquitectura más eficiente para sus cargas de trabajo únicas.
Li dijo que Meta comenzó a adoptar MTIA en la primera mitad de 2024 para la clasificación central y la inferencia de recomendaciones. “Continuaremos aumentando la adopción para esas cargas de trabajo en el transcurso de 2025, ya que la usamos tanto para la capacidad incremental como para reemplazar algunos servidores basados en GPU cuando llegan al final de sus vidas útiles”, agregó. “El año que viene, esperamos expandir MTIA para apoyar algunas de nuestras cargas de trabajo de capacitación de IA principal, y con el tiempo algunos de nuestros Genai [generative AI] Casos de uso. “
Eficiencia de conducción y costo total de propiedad
Meta ha dicho anteriormente que la eficiencia es uno de los factores más importantes para implementar MTIA en sus centros de datos. Esto se mide en la métrica de rendimiento por vatio (TFLOPS/W), que según él es un componente clave del costo total de propiedad. El chip MTIA está instalado en un módulo de complemento de plataforma de cálculo abierto (OCP), que consume aproximadamente 35W. Pero la arquitectura MTIA requiere una unidad de procesamiento central (CPU) junto con memoria y chips para la conectividad.
El trabajo reportado que está haciendo con ARM podría ayudar a la compañía a pasar de los circuitos integrados de aplicación (ASIC) altamente personalizados específicos de la aplicación que se desarrolló para su chip de primera generación, MTIA 1, a una arquitectura de próxima generación basada en núcleos de procesadores de brazo de uso general .
Mirando las últimas ganancias de Arm, la compañía se está posicionando para ofrecer IA que puede escalar la potencia de manera eficiente. Arm se ha asociado previamente con NVIDIA para ofrecer una IA de eficiencia poderosa en la arquitectura Nvidia Blackwell Grace.
En el Consumer Electronics Show en enero, Nvidia dio a conocer el GB10 Grace Blackwell Superchip basado en BRAS, que afirmó que ofrece una petaflop de rendimiento informático de IA para prototipos, ajustes finos y ejecutando grandes modelos de IA. El chip utiliza un procesador ARM con el acelerador Blackwell de NVIDIA para mejorar el rendimiento de las cargas de trabajo de IA.
La industria de semiconductores ofrece un sistema en un chip (SOC) dispositivos, donde varios bloques de construcción de computadoras se integran en un solo chip. Grace Blackwell es un ejemplo de un SoC. Dado el trabajo que Meta ha estado haciendo para desarrollar su chip MTIA, la compañía puede estar explorando cómo puede funcionar con ARM para integrar su propia tecnología con la CPU ARM en un solo dispositivo.
Aunque un SOC es más complejo desde una perspectiva de fabricación de chips, las economías de escala cuando la producción se aumenta y el hecho de que el dispositivo puede integrar varios componentes externos en un solo paquete, lo hace considerablemente más rentable para los constructores de sistemas.
Los comentarios de Li sobre el reemplazo de los servidores de GPU y el objetivo de MTIA para reducir el costo total de propiedad de Meta para la AI se correlacionan con el acuerdo informado con ARM, lo que potencialmente le permitiría escalar de manera rentable y reducir su dependencia de la aceleración de AI basada en GPU.
Impulsando las credenciales de IA del brazo
Arm, que es una compañía de SoftBank, recientemente se encontró en el centro del Proyecto Stargate de la Administración Trump, una iniciativa respaldada por SoftBank para implementar capacidades soberanas de IA en los Estados Unidos.
Durante la llamada de ganancias para los últimos resultados trimestrales de ARM, el CEO Rene Haas describió a Stargate como “un proyecto de infraestructura extremadamente significativo”, y agregó: “Estamos extremadamente entusiasmados de ser la CPU elegida para dicha plataforma combinada con la CPU Blackwell con [ARM-based] Gracia. En el futuro, habrá un gran potencial para la innovación tecnológica en torno a ese espacio “.
Haas también habló sobre la colaboración de inteligencia de Cristal con OpenAi, que según él permite a los agentes de IA moverse a través de cada nodo del ecosistema de hardware. “Si piensa en los dispositivos más pequeños, como los auriculares, hasta el centro de datos, se trata de que los agentes sean cada vez más la interfaz y/o el controlador de todo lo que impulsa la IA dentro del dispositivo”, agregó.