¿Qué son las unidades de procesamiento tensoriales y cuál es su papel en la IA?

Hay unidades centrales de procesamiento (CPU), unidades de procesamiento de gráficos (GPU) e incluso unidades de procesamiento de datos (DPU), todas las cuales son bien conocidas y comunes en la actualidad. Las GPU en particular han cobrado importancia recientemente con la aparición de la inteligencia artificial (IA).

Es posible que también haya oído hablar de las unidades de procesamiento tensorial (TPU), que son una creación de Google y solo están disponibles a través de sus servicios en la nube.

Pero, ¿qué son los TPU y por qué podrían necesitarse?

En resumen, son unidades de procesamiento personalizadas para su uso con datos de alta dimensión que se encuentran en las operaciones de procesamiento de IA. Pero, antes de exponer sus características en detalle, veamos cómo se comparan con otras formas de procesador.

Las CPU, como probablemente todos sabemos, son el núcleo de toda la informática. Núcleo es la palabra clave hoy en día, ya que múltiples núcleos (en otras palabras, unidades de procesamiento individuales dentro de la CPU) manejan múltiples funciones informáticas.

De hecho, las CPU son los procesadores de uso general del mundo de la informática. Manejan instrucciones entrantes y mensajes salientes a otras partes del sistema y la orquestación general de eventos. Esto se debe a que pueden manejar numerosos conjuntos de funciones simultáneamente y son buenos en eso.

Pero, desde que existen las CPU, también ha existido la necesidad de descargar operaciones de procesamiento pesado a chips más especializados.

¿De qué sirven las TPU cuando existen las GPU?

Y así surgieron las GPU. Originalmente, como sugiere el nombre, fueron creados para manejar el procesamiento de gráficos en juegos, pero luego comenzaron a encontrar un uso en la IA. Esto se debe a que el procesamiento de gráficos tiene que ver con operaciones matriciales. En otras palabras, en cálculos que involucran matrices (por ejemplo, en múltiples dimensiones) y se descubrió que estas también son adecuadas para operaciones de IA.

Más contenido para leer:  Four-fifths of UK gains access to gigabit broadband

Pero, si bien las GPU pueden manejar operaciones matriciales, no están tan personalizadas para esta tarea como las TPU, como veremos.

Nvidia se ha convertido últimamente en sinónimo del mercado de GPU para casos de uso de IA, pero también están disponibles a través de otros proveedores.

¿Qué hacen las DPU?

Luego también están las DPU, implementadas en servidores para manejar la transferencia de datos, la reducción de datos, la seguridad y el análisis. Aquí, estas tareas se descargan de las CPU con DPU para brindar más especialización a las tareas involucradas, liberando la CPU para tareas más generales y de orquestación.

Las DPU están disponibles en Intel, Nvidia, Marvell y AMD, así como en la nube, por ejemplo, en Amazon Web Services con sus tarjetas Nitro.

¿Qué tienen de especial los TPU?

Los TPU se utilizaron por primera vez aproximadamente en 2016. Son, como se mencionó anteriormente, unidades de procesamiento de tensores. Un tensor es una forma de matriz, o número multidimensional, un elemento clave del procesamiento de IA que asigna y utiliza números de alta dimensión a los objetos para procesarlos.

Ya sea que se utilicen tensores específicamente matemáticos o no en los TPU de Google, lo clave que los caracteriza es que están construidos alrededor de chips ASIC personalizados para cálculos que involucran números de alta dimensión. ASIC significa circuito integrado de aplicación específica. Eso significa hardware de chip diseñado especialmente para operaciones específicas. Específicamente, los ASIC en una TPU se denominan unidades multiplicadoras de matrices (MXU).

Eso es lo que diferencia a las TPU de las CPU, que son procesadores de propósito general. Las DPU y las GPU se pueden construir alrededor de ASIC, o matrices de puertas programables en campo (FPGA), que no están diseñadas para una sola tarea pero que se pueden configurar según sea necesario para una amplia gama de usos.

Más contenido para leer:  Google se une a Microsoft y Facebook al comprometerse a reponer más agua de la que consume para 2030

El tensor ASIC de Google en sus TPU fue diseñado para usarse con su marco de software de inteligencia artificial TensorFlow de código abierto, que ayuda a ejecutar modelos de análisis de inteligencia artificial avanzados en los que los datos se organizan mediante patrones de alta dimensión.

Los TPU están disponibles en Google y se entregan como un servicio. La última versión, TPU v5p, permite un cálculo máximo de 459 operaciones de punto flotante por segundo (teraflops). Hoy en día, además de TensorFlow, las TPU de Google admiten otros marcos de inteligencia artificial como PyTorch y Jax, con clasificación y generación de imágenes, y grandes operaciones de modelos de lenguaje posibles.

Dicho todo esto sobre la especialización de las TPU, cualquiera que esté pensando en construir sus propios sistemas de IA internamente no podrá comprarlos de todos modos. Las GPU harán el trabajo igual de bien, y aún no se sabe si existe una ventaja de rendimiento para las TPU. Lo que pasa es que si quieres trabajar en la nube (de Google), las TPU funcionarán bien con la pila de software de IA disponible allí.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales