banner
Centro de Noticias
La empresa está buscando candidatos de primer nivel.

El nuevo chip de IA de Microsoft no representa una amenaza para Nvidia, pero las crecientes necesidades de LLM impulsan el silicio personalizado

Sep 30, 2023

Únase a los principales ejecutivos en San Francisco el 11 y 12 de julio para escuchar cómo los líderes están integrando y optimizando las inversiones en IA para el éxito. Aprende más

Microsoft ha estado desarrollando un nuevo chip de inteligencia artificial (IA), cuyo nombre en código interno es Athena, desde 2019, según informa The Information hoy. La empresa podría hacer que Athena esté ampliamente disponible para su uso dentro de la propia empresa y OpenAI a partir del próximo año.

Los expertos dicen que Nvidia no se verá amenazada por estos movimientos, pero sí indica la necesidad de que los hiperescaladores desarrollen su propio silicio personalizado.

El chip, como los desarrollados internamente por Google (TPU) y Amazon (arquitecturas de procesador Trainium e Inferentia), está diseñado para manejar el entrenamiento de modelos de lenguaje grande (LLM). Eso es esencial porque la escala de los modelos de IA generativos avanzados está creciendo más rápido que las capacidades informáticas necesarias para entrenarlos, dijo Chirag Dekate, analista de Gartner, a VentureBeat por correo electrónico.

Nvidia es el líder del mercado por una milla cuando se trata de suministrar chips de IA, con una participación de mercado de aproximadamente el 88%, según John Peddie Research. Las empresas compiten solo para reservar el acceso a las GPU de gama alta A100 y H100 que cuestan decenas de miles de dólares cada una, lo que provoca lo que podría describirse como una crisis de GPU.

Transformar 2023

Únase a nosotros en San Francisco los días 11 y 12 de julio, donde los altos ejecutivos compartirán cómo han integrado y optimizado las inversiones en IA para lograr el éxito y evitar errores comunes.

"Los modelos de inteligencia artificial generativa de vanguardia ahora utilizan cientos de miles de millones de parámetros que requieren capacidades computacionales a gran escala", explicó. "Con modelos de próxima generación que varían en billones de parámetros, no sorprende que los principales innovadores tecnológicos estén explorando diversos aceleradores computacionales para acelerar el entrenamiento y reducir el tiempo y el costo del entrenamiento involucrado".

Dado que Microsoft busca acelerar su estrategia de IA generativa mientras reduce los costos, tiene sentido que la empresa desarrolle una estrategia aceleradora de IA personalizada y diferenciada, agregó, que "podría ayudarlos a ofrecer economías de escala disruptivas más allá de lo que es posible utilizando enfoques tecnológicos tradicionales comercializados". "

La necesidad de aceleración también se aplica, de manera importante, a los chips de IA que admiten la inferencia de aprendizaje automático, es decir, cuando un modelo se reduce a un conjunto de pesos que luego usan datos en vivo para producir resultados procesables. La infraestructura informática se utiliza para la inferencia cada vez que ChatGPT genera respuestas a entradas de lenguaje natural, por ejemplo.

Nvidia produce chips de IA de propósito general muy potentes y ofrece su plataforma de cómputo paralelo CUDA (y sus derivados) como una forma de hacer entrenamiento de ML específicamente, dijo el analista Jack Gold, de J Gold Associates, en un correo electrónico a VentureBeat. Pero la inferencia generalmente requiere menos rendimiento, explicó, y los hiperescaladores ven una manera de impactar también las necesidades de inferencia de sus clientes con silicio personalizado.

"En última instancia, la inferencia será un mercado mucho más grande que el ML, por lo que es importante que todos los proveedores ofrezcan productos aquí", dijo.

Gold dijo que no ve a Athena de Microsoft como una gran amenaza para el lugar de Nvidia en AI/ML, donde ha dominado desde que la compañía ayudó a impulsar la "revolución" de aprendizaje profundo de hace una década; construyó una estrategia de plataforma poderosa y un enfoque centrado en el software; y vio aumentar sus acciones en una era de IA generativa pesada en GPU.

"A medida que las necesidades se expanden y la diversidad de uso también se expande, es importante que Microsoft y los demás hiperescaladores busquen sus propias versiones optimizadas de chips de IA para sus propias arquitecturas y algoritmos optimizados (no específicos de CUDA)", dijo.

Se trata de los costos operativos de la nube, explicó, pero también de brindar opciones de menor costo para diversos clientes que tal vez no necesiten o no deseen la opción de Nvidia de alto costo. “Espero que todos los hiperescaladores continúen desarrollando su propio silicio, no solo para competir con Nvidia, sino también con Intel en computación en la nube de propósito general”.

Dekate también sostuvo que Nvidia no muestra signos de desaceleración. “Nvidia sigue siendo la principal tecnología de GPU que impulsa el desarrollo y la ingeniería de IA generativa a escala extrema”, dijo. "Las empresas deben esperar que Nvidia continúe construyendo sobre su innovación de clase líder e impulse la diferenciación competitiva a medida que surgen los ASIC de IA personalizados".

Pero señaló que "la innovación en la última fase de la ley de Moore será impulsada por una aceleración heterogénea que comprende GPU y chips personalizados para aplicaciones específicas". Esto tiene implicaciones para la industria de semiconductores en general, explicó, especialmente "los proveedores de tecnología que aún tienen que participar de manera significativa para abordar las necesidades del mercado de IA en rápida evolución".

La misión de VentureBeat es ser una plaza pública digital para que los responsables de la toma de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubre nuestras sesiones informativas.

La misión de VentureBeat