AMD lanzó un nuevo chip de inteligencia artificial el jueves que apunta directamente a los procesadores gráficos de centros de datos de Nvidia, conocidos como GPUs.
El Instinct MI325X, como se llama el chip, comenzará a producirse antes de finales de 2024, dijo AMD el jueves durante un evento anunciando el nuevo producto. Si los chips de IA de AMD son vistos por los desarrolladores y gigantes de la nube como un sustituto cercano a los productos de Nvidia, podría ejercer presión sobre los precios de Nvidia, que ha disfrutado de márgenes brutos de aproximadamente el 75% mientras sus GPUs han estado muy demandados en el último año.
La inteligencia artificial generativa avanzada como ChatGPT de OpenAI requiere enormes centros de datos llenos de GPUs para hacer el procesamiento necesario, lo que ha creado la demanda de más empresas para proporcionar chips de IA.
En los últimos años, Nvidia ha dominado la mayoría del mercado de GPUs para centros de datos, pero AMD históricamente está en segundo lugar. Ahora, AMD tiene como objetivo arrebatar cuota a su rival del Silicon Valley o al menos capturar una gran parte del mercado, que se espera que valga $500 mil millones para 2028.
“La demanda de IA ha seguido despegando y realmente superando las expectativas. Es claro que la tasa de inversión continúa creciendo en todas partes”, dijo la CEO de AMD, Lisa Su, en el evento.
AMD no reveló nuevos clientes importantes de nube o internet para sus GPUs Instinct en el evento, pero la compañía ha revelado previamente que tanto Meta como Microsoft compran sus GPUs de IA y que OpenAI las usa para algunas aplicaciones. La compañía tampoco reveló el precio del Instinct MI325X, que normalmente se vende como parte de un servidor completo.
Con el lanzamiento del MI325X, AMD está acelerando su programa de productos para lanzar nuevos chips en un programa anual para competir mejor con Nvidia y aprovechar el auge de los chips de IA. El nuevo chip de IA es el sucesor del MI300X, que comenzó a enviarse a finales del año pasado. El chip de 2025 de AMD se llamará MI350, y su chip de 2026 se llamará MI400, dijo la compañía.
El despliegue del MI325X lo enfrentará contra los próximos chips Blackwell de Nvidia, que Nvidia ha dicho que comenzarán a enviarse en cantidades significativas a principios del próximo año.
Un lanzamiento exitoso para la última GPU de centro de datos de AMD podría atraer el interés de inversores que buscan empresas adicionales que estén en línea para beneficiarse del boom de la IA. AMD solo ha subido un 20% hasta ahora en 2024, mientras que el stock de Nvidia ha subido más de un 175%. La mayoría de las estimaciones de la industria dicen que Nvidia tiene más del 90% del mercado de chips de IA para centros de datos.
Las acciones de AMD cayeron un 3% durante la sesión de negociación del jueves.
El mayor obstáculo de AMD para ganar cuota de mercado es que los chips de su rival utilizan su propio lenguaje de programación, CUDA, que se ha convertido en estándar entre los desarrolladores de IA. Eso básicamente encierra a los desarrolladores en el ecosistema de Nvidia.
En respuesta, AMD dijo esta semana que ha estado mejorando su software competidor, llamado ROCm, para que los desarrolladores de IA puedan cambiar más fácilmente más de sus modelos de IA a los chips de AMD, a los que llama aceleradores.
AMD ha enmarcado sus aceleradores de IA como más competitivos para casos de uso en los que los modelos de IA están creando contenido o haciendo predicciones en lugar de cuando un modelo de IA está procesando terabytes de datos para mejorar. Eso se debe en parte a la memoria avanzada que AMD está utilizando en su chip, lo que le permite servir al modelo de IA Llama de Meta más rápido que algunos chips de Nvidia.
“Lo que se ve es que la plataforma MI325 ofrece hasta un 40% más de rendimiento en inferencia que el H200 en Llama 3.1”, dijo Su, refiriéndose al amplio modelo de lenguaje de Meta.
Enfrentando a Intel, también
Aunque los aceleradores de IA y las GPUs se han convertido en la parte más intensamente observada de la industria de semiconductores, el negocio central de AMD ha sido los procesadores centrales, o CPUs, que están en el centro de casi todos los servidores en el mundo.
Las ventas de centro de datos de AMD durante el trimestre de junio se duplicaron en el último año a $2.800 millones, con los chips de IA representando solo alrededor de $1 mil millones, dijo la compañía en julio.
AMD obtiene alrededor del 34% del total de dólares gastados en CPUs de centro de datos, dijo la compañía. Aún es menos que Intel, que sigue siendo el jefe del mercado con su línea de chips Xeon. AMD tiene como objetivo cambiar eso con una nueva línea de CPUs, llamada EPYC 5th Gen, que también anunció el jueves.
Estos chips vienen en varias configuraciones diferentes que van desde un chip de 8 núcleos de bajo costo y bajo consumo que cuesta $527 hasta procesadores de 192 núcleos y 500 vatios destinados a supercomputadoras que cuestan $14.813 por chip.
Los nuevos CPUs son particularmente buenos para alimentar datos en cargas de trabajo de IA, dijo AMD. Casi todas las GPUs requieren un CPU en el mismo sistema para arrancar la computadora.
“La IA de hoy en día realmente se trata de la capacidad de la CPU, y se ve eso en la analítica de datos y en muchos de esos tipos de aplicaciones”, dijo Su.