IBM saca los bits del aprendizaje profundo

IBM Research ha revelado planes para construir un prototipo de chip especializado en inteligencia artificial (IA). El chip, que IBM ha denominado Unidad de Inteligencia Artificial (AIU), marca el primer sistema completo en un chip del IBM Research AI Hardware Centre.

En un blog sobre el nuevo chip, los investigadores de IBM escribieron: “Nos estamos quedando sin poder de cómputo. Los modelos de IA están creciendo exponencialmente, pero el hardware para entrenar a estos gigantes y ejecutarlos en servidores en la nube o en dispositivos periféricos como teléfonos inteligentes y sensores no ha avanzado tan rápido”.

El plan de IBM, basado en investigaciones de 2019, es reducir la complejidad de los chips utilizados para el procesamiento de IA. Los investigadores dijeron que la flexibilidad y la alta precisión de los procesadores informáticos (CPU) de propósito general han hecho que estos chips sean muy adecuados para aplicaciones de software de propósito general, pero esta flexibilidad también los pone en desventaja cuando se trata de entrenar y ejecutar modelos de aprendizaje profundo. que requieren operaciones de IA masivamente paralelas.

IBM está tomando dos enfoques con su alternativa a las CPU tradicionales. Primero, dijo que está desarrollando un circuito integrado de aplicación específica (ASIC), que utiliza significativamente menos bits binarios (menos precisión) que la aritmética de 32 bits utilizada en la informática de propósito general. La tarea principal del ASIC implica la multiplicación de matrices y vectores, que según IBM son los cálculos principales requeridos en la IA.

En un artículo publicado en 2019, los investigadores de IBM presentaron un enfoque para simplificar el procesamiento necesario para realizar los llamados cálculos de “puntos” que se utilizan en los algoritmos de aprendizaje profundo. Dichos cálculos implican multiplicar dos números de punto flotante y acumular los resultados en sumas parciales.

Más contenido para leer:  Un tercio de las empresas automatizará la mayoría de las actividades de la red para 2026

Los investigadores dijeron que gran parte del trabajo involucrado en el “aprendizaje profundo de precisión reducida” se logra aproximando los datos en la parte de multiplicación del cálculo. Pero la parte de acumulación se deja en 32 bits.

Según IBM, no es posible reducir la precisión de la parte de acumulación del cómputo, porque hacerlo puede provocar una grave inestabilidad del entrenamiento y una degradación de la precisión del modelo. En el artículo, los investigadores sugirieron un enfoque teórico para lograr hardware de precisión ultrabaja para el entrenamiento de redes neuronales profundas (DNN). Esta es una de las áreas de investigación en las que IBM se ha basado para desarrollar el hardware AIU.

En la publicación del blog sobre la AIU, IBM dijo: “Un chip de IA no tiene que ser tan ultrapreciso como una CPU. No estamos calculando trayectorias para aterrizar una nave espacial en la luna o estimando la cantidad de pelos en un gato. Estamos haciendo predicciones y decisiones que no requieren nada parecido a esa resolución granular”.

Con la técnica que utiliza, llamada “computación aproximada”, IBM dijo que puede pasar de la aritmética de coma flotante de 32 bits a formatos de bits, que contienen una cuarta parte de la información. “Este formato simplificado reduce drásticamente la cantidad de cálculos numéricos necesarios para entrenar y ejecutar un modelo de IA, sin sacrificar la precisión”, afirmó IBM.

El segundo enfoque adoptado por los investigadores de IBM es que el chip AIU se está diseñando de tal manera que los circuitos agilicen los flujos de trabajo de IA al enviar datos directamente de un motor de cómputo al siguiente.

Más contenido para leer:  Cloud Native Computing: A Computer Weekly Downtime Upload podcast

Las unidades de procesamiento especializadas diseñadas para cargas de trabajo de IA no son nada nuevo. Empresas como Nvidia y AMD han cosechado los beneficios de los núcleos especializados que ofrecen sus unidades de procesamiento de gráficos (GPU) para optimizar el aprendizaje automático. Pero, en última instancia, la GPU se diseñó fundamentalmente en torno a las matemáticas involucradas en la manipulación de gráficos utilizando una arquitectura informática altamente paralela. Sin embargo, utilizan cientos, si no miles, de núcleos. Por ejemplo, la GPU de supercomputación Nvidia Titan V de 21 mil millones de transistores, lanzada en 2017, tenía 5120 núcleos Cuda de precisión simple.

Teóricamente, un ASIC se puede diseñar para que se centre por completo en optimizar un tipo de carga de trabajo. En el caso de IBM, se trata de entrenar redes de aprendizaje profundo para aplicaciones de IA.

Cuando McKinsey investigó la aceleración de IA para entrenar modelos de IA a fines de 2017, estimó que dentro de la informática del centro de datos, los ASIC representarán el 50 % de las cargas de trabajo para 2025, y las GPU representarán el 40 % para 2025. 2025, los ASIC se utilizarán para el 70 % de las cargas de trabajo.

Pero la línea entre ASIC y GPU se está desdibujando. Por ejemplo, el motor de entrenamiento de IA DXG A100 de Nvidia ofrece núcleos Tensor dentro de su arquitectura de GPU.

Al describir la AIU, IBM dijo: “Nuestro sistema completo en chip cuenta con 32 núcleos de procesamiento y contiene 23 mil millones de transistores, aproximadamente el mismo número empaquetado en nuestro chip z16. IBM AIU también está diseñado para ser tan fácil de usar como una tarjeta gráfica. Se puede conectar a cualquier computadora o servidor con una ranura PCIe”.

Más contenido para leer:  GFiber Labs and NBN Co set milestone with access to 20Gbps broadband

IBM ha posicionado la AIU como “fácil de conectar como una tarjeta GPU”, lo que sugiere que espera ofrecer una alternativa viable a los aceleradores de IA basados ​​en GPU. “Para 2029, nuestro objetivo es entrenar y ejecutar modelos de IA 1000 veces más rápido que hace tres años”, dijo la compañía.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales