Claves de la empresa de bolsa

El chip prodigioso tras la subida histórica de Nvidia, una 'burbuja' con fundamento

Un sistema de microprocesadores vinculados a la inteligencia artificial y la computación acelerada que necesitan los centros de datos está detrás de la gran galopada de la compañía hasta los 2 billones en bolsa.

Nvidia GeForce, uno de los productos de la empresa para videojuegos.
Nvidia GeForce, uno de los productos de la empresa para videojuegos.
Nvidia vía La Información

Los componentes informáticos generalmente no se espera que transformen negocios e industrias enteras, pero hay una unidad de procesamiento gráfico (GPU) lanzada por Nvidia en 2023 que a logrado exactamente eso. El chip de centro de datos H100 ha añadido más de 1 billón al valor de la tecnológica y ha convertido a la empresa en un rey de la inteligencia artificial de la noche a la mañana. 

Ha demostrado a los inversores que el entusiasmo en torno a la inteligencia artificial generativa se está traduciendo en ingresos reales, al menos para Nvidia y sus proveedores más esenciales. La demanda del H100 es tan alta que algunos clientes tienen que esperar hasta seis meses para recibirlo. Jensen Huang, fundador de la compañía, calificó el momento como "punto de inflexión" por el despertar global de la demanda de sus productos vinculados a la IA.

Los últimos resultados de la compañía dan buena cuenta de que la burbuja que se le achaca en bolsa es solo el reflejo de uno de los crecimientos más imponentes de la historia. Wall Street asistió el jueves a la mayor revalorización de una empresa en bolsa en una sola sesión, con un aumento de 273.100 millones de dólares de capitalización, hasta los 2 billones. Nvidia dibuja una trayectoria meteórica en bolsa con una subida de más del 1.000% en cuatro años que le ha situado por delante empresas como Amazon, Alphabet o Meta , y solo por detrás de Apple y Microsoft.

¿Qué es el chip H100 de Nvidia?

El H100, cuyo nombre es un homenaje a la pionera en ciencias de la computación Grace Hopper, es un procesador gráfico. Es una versión más robusta de un tipo de chip que normalmente se encuentra en PCs y ayuda a los jugadores a obtener la experiencia visual más realista. 

Pero ha sido optimizado para procesar grandes volúmenes de datos y cálculos a alta velocidad, lo que lo hace perfecto para la tarea intensiva en energía de entrenar modelos de inteligencia artificial. Nvidia, fundada en 1993, pionera en este mercado con inversiones que se remontan casi dos décadas, cuando apostó que la capacidad de realizar trabajo en paralelo haría que sus chips fueran valiosos en aplicaciones fuera de los juegos.

¿Por qué es tan especial el H100?

Las plataformas de inteligencia artificial generativa aprenden a completar tareas como traducir texto, resumir informes y sintetizar imágenes mediante el entrenamiento con enormes volúmenes de material preexistente. Cuanto más ven, mejor se vuelven en cosas como reconocer el habla humana o escribir cartas de presentación laborales. 

Se desarrollan a través de ensayo y error, realizando miles de millones de intentos para alcanzar la competencia y absorbiendo grandes cantidades de potencia informática en el proceso. Nvidia afirma que el H100 es cuatro veces más rápido que el predecesor del chip, el A100, en el entrenamiento de estos llamados modelos de lenguaje grandes, o LLMs, y es 30 veces más rápido al responder a las solicitudes de los usuarios. Para las empresas que compiten por entrenar LLMs para realizar nuevas tareas, este margen de rendimiento puede ser crítico.

¿Cómo se convirtió Nvidia en líder en IA?

La empresa de Santa Clara, California, es líder mundial en chips gráficos, los componentes de una computadora que generan las imágenes que ves en la pantalla. Los más potentes de estos están construidos con cientos de núcleos de procesamiento que realizan múltiples hilos de cómputo simultáneamente, modelando físicas complejas como sombras y reflejos. 

Los ingenieros de Nvidia se dieron cuenta a principios de los años 2000 de que podían reconfigurar los aceleradores gráficos para otras aplicaciones, dividiendo las tareas en fragmentos más pequeños y luego trabajando en ellos al mismo tiempo. Hace poco más de una década, los investigadores en inteligencia artificial descubrieron que su trabajo finalmente podría hacerse práctico utilizando este tipo de chip.

¿Tiene Nvidia competidores reales?

Nvidia controla aproximadamente el 80% del mercado de aceleradores en los centros de datos de inteligencia artificial operados por Amazon.com Inc.’s AWS, Alphabet Inc.’s Google Cloud y Microsoft Corp.’s Azure. Los esfuerzos internos de estas compañías para construir sus propios chips, y los productos rivales de fabricantes de chips como Advanced Micro Devices Inc. e Intel Corp., no han tenido mucho impacto en el mercado de aceleradores de IA hasta ahora.

¿Cómo se mantiene Nvidia por delante de sus competidores?

Nvidia ha actualizado rápidamente sus ofertas, incluyendo software para respaldar el hardware, a un ritmo que ninguna otra empresa ha podido igualar hasta ahora. La compañía también ha ideado varios sistemas de clúster que ayudan a sus clientes a comprar H100 en grandes cantidades y desplegarlos rápidamente. 

Chips como los procesadores Xeon de Intel son capaces de realizar cálculos de datos más complejos, pero tienen menos núcleos y son mucho más lentos para procesar las grandes cantidades de información típicamente utilizadas para entrenar software de inteligencia artificial. La división de centros de datos de Nvidia registró un aumento del 81% en los ingresos, llegando a $22 mil millones en el último trimestre de 2023.

¿Cómo se comparan AMD e Intel con Nvidia?

AMD, el segundo mayor fabricante de chips gráficos para computadoras, presentó una versión de su línea Instinct en junio dirigida al mercado que los productos de Nvidia dominan. El chip, llamado MI300X, tiene más memoria para manejar cargas de trabajo para inteligencia artificial generativa, según la directora ejecutiva de AMD, Lisa Su, en un evento en San Francisco. 

"Todavía estamos en una fase muy, muy temprana en el ciclo de vida de la IA", dijo en diciembre. Intel está llevando al mercado chips específicos para cargas de trabajo de inteligencia artificial, pero reconoció que, por ahora, la demanda de chips gráficos para centros de datos está creciendo más rápido que para las unidades de procesamiento que tradicionalmente eran su fortaleza. La ventaja de Nvidia no está solo en el rendimiento de su hardware. La compañía inventó algo llamado CUDA, un lenguaje para sus chips gráficos que les permite ser programados para el tipo de trabajo que sustenta los programas de IA.

¿Qué planea lanzar Nvidia próximamente?

Más adelante este año, el H100 pasará el relevo a un sucesor, el H200, antes de que Nvidia realice cambios más sustanciales en el diseño con un modelo B100 más adelante. El CEO Jensen Huang ha actuado como embajador de la tecnología y ha buscado que los gobiernos, así como las empresas privadas, compren temprano o corran el riesgo de quedarse atrás frente a aquellos que adoptan la IA. Nvidia también sabe que una vez que los clientes eligen su tecnología para sus proyectos de IA generativa, tendrá mucho más fácil venderles mejoras que los competidores que esperan atraer usuarios.

Mostrar comentarios