Noticias

Google presenta una supercomputadora de IA para competir con Nvidia

Publicado el

Google publicó detalles sobre una de sus supercomputadoras de inteligencia artificial el miércoles, diciendo que es más rápida y más eficiente que los sistemas de Nvidia, ya que los modelos de aprendizaje automático que consumen mucha energía continúan siendo la parte más popular de la industria tecnológica.

Mientras que Nvidia domina el mercado de entrenamiento e implementación de modelos de IA, con más del 90%, Google ha estado diseñando e implementando chips de IA llamados Unidades de procesamiento de tensores, o TPU, desde 2016.

Google es un importante pionero de la Inteligencia Artificial y sus empleados han desarrollado algunos de los avances más importantes en el campo durante la última década. Pero algunos creen que la compañía se ha quedado atrás en términos de comercialización de sus inventos, e internamente, la compañía ha estado compitiendo para lanzar productos y demostrar que no ha desperdiciado su liderazgo, una situación de “código rojo” en la compañía, según informó CNBC anteriormente.

Los modelos y productos de IA, como Bard de Google o ChatGPT de OpenAI, con tecnología de chips A100 de Nvidia, requieren muchas computadoras y cientos o miles de chips para trabajar juntos para poder entrenar modelos. Para que estos modelos de inteligencia artificial sean posibles, las computadoras tienen que estar funcionando las 24 horas del día durante semanas o meses.

El martes, Google dijo que había creado un sistema con más de 4000 TPU unidas con componentes personalizados diseñados para ejecutar y entrenar modelos de IA. El sistema ha estado funcionando desde 2020 y se utilizó para entrenar al modelo PaLM de Google, que compite con el modelo GPT de OpenAI, durante 50 días.

La supercomputadora basada en TPU de Google, llamada TPU v4, es “entre .2 y 1.7 veces más rápida y usa entre 1.3 y 1.9 veces menos energía que la Nvidia A100”, escribieron los investigadores de Google.

“El rendimiento, la escalabilidad y la disponibilidad hacen que las supercomputadoras TPU v4 sean los caballos de batalla de los grandes modelos de lenguaje”, señalaron los investigadores.

Nvidia sigue siendo el líder del mercado

Sin embargo, los resultados de TPU de Google no se compararon con el último chip Nvidia AI, el H100, porque es más reciente y se fabricó con una tecnología de fabricación más avanzada, dijeron los investigadores de Google.

Los resultados y clasificaciones de una prueba de chip de IA de toda la industria llamada MLperf se publicaron el miércoles, y el CEO de Nvidia, Jensen Huang, dijo que los resultados del chip Nvidia más reciente, el H100, fueron significativamente más rápidos que la generación anterior de chips.

“El MLPerf 3.0 de hoy destaca que Hopper ofrece 4 veces más rendimiento que A100”, escribió Huang en una publicación de blog. “El siguiente nivel de IA generativa requiere una nueva infraestructura de IA para entrenar modelos de lenguaje grande con gran eficiencia energética.

El mercado de la inteligencia artificial, una bendición para los proveedores de espacio de la nube

La cantidad sustancial de potencia informática necesaria para la IA es costosa, y muchos en la industria se centran en desarrollar nuevos chips, componentes como conexiones ópticas o técnicas de software que reducen la cantidad de potencia informática necesaria.

Los requisitos de energía de la IA también son una bendición para los proveedores de la nube como Google, Microsoft y Amazon, que pueden alquilar espacios de procesamiento informático por horas y proporcionar créditos o tiempo informático a las empresas emergentes para establecer relaciones. (La nube de Google también vende tiempo en chips Nvidia). Por ejemplo, Google dijo que Midjourney, un generador de imágenes de IA, fue entrenado en sus chips TPU.

Con información de CNBC.

Deja un comentarioCancelar respuesta

POPULAR

Salir de la versión móvil