Inteligencia Artificial

Google lanza el chip Trillium, nuevo miembro de la familia de chips para centros de datos de IA

Publicado por
Isabella Caminoto

A Alphabet, controlador de Google, reveló el martes (14) la Trillium, nuevo miembro de la familia de chips para centros de datos inteligencia artificial (AI). La empresa afirma que Trillium es casi cinco veces más rápido que la versión anterior.

"La demanda de la industria de computadoras con aprendizaje automático se ha multiplicado por 1 millón en los últimos seis años, aumentando aproximadamente 10 veces cada año". dijo el director ejecutivo de Alphabet, Sundar Pichai, en una conferencia telefónica con periodistas. “Yo creo que el Google Fue construido para este momento. Hemos sido pioneros en chips de IA durante más de una década”.

El esfuerzo de Alphabet por desarrollar chips personalizados para los centros de datos La tecnología de IA representa una de las pocas alternativas viables a los procesadores de IA líderes en el mercado. Nvidia. Combinado con software estrechamente vinculado a las unidades de procesamiento tensorial (TPU) del Google, estos chips permitieron a la empresa capturar una parte importante del mercado.

Nvidia domina aproximadamente el 80% del mercado de chips de IA para centros de datos, y la gran mayoría del 20% restante son variaciones de los TPU del Google. La empresa no vende el chip en sí, sino que accede a él a través de su plataforma de computación en la nube.

De acuerdo con Google, el chip Trillium de sexta generación logrará un rendimiento informático 4,7 veces mejor en comparación con el TPU v5e, un chip diseñado para impulsar la tecnología que genera texto y otros medios a partir de modelos grandes. El procesador Trillium también es un 67% más eficiente energéticamente que el v5e.

La compañía dijo que el nuevo chip estará disponible para sus clientes de la nube a “finales de 2024”.

los ingenieros de Google logró mejoras de rendimiento adicionales al aumentar la capacidad de memoria de alto ancho de banda y el ancho de banda general. Los modelos de IA requieren enormes cantidades de memoria avanzada, lo que supuso un cuello de botella para seguir aumentando el rendimiento.

La compañía diseñó los chips para ser implementados en módulos de 256 unidades, con la capacidad de escalarse a cientos de módulos.

Lea también:

Esta publicación fue modificada por última vez el 14 de mayo de 2024 21:03

Isabella Caminoto

Abogado y estudiante de maestría en Derecho Internacional, tengo la democracia y la libertad como banderas innegables. Me apasionan los animales y creo que el bienestar de nuestro planeta debería ser el punto culminante diario de la agenda de nuestra sociedad.

Mensajes recientes

Análisis | Combatir el sesgo de género en la IA: desafíos y soluciones

El artículo “Inteligencia Artificial e Igualdad de Género”, publicado por ONU Mujeres, presenta un análisis…

26 mayo 2024

La IA impulsa la investigación sobre el comportamiento animal; entender

Investigadores de Seattle han desarrollado software de inteligencia artificial (IA) para analizar rápidamente el comportamiento...

26 mayo 2024

xAI: Elon Musk planea una supercomputadora para su startup de IA

Elon Musk reveló a los inversores, en una presentación celebrada en mayo, sus planes…

26 mayo 2024

Cansado de los resúmenes de IA Google? Mira cómo evitarlos

Si buscas algo en Google Últimamente, habrás notado un bloque de texto que...

25 mayo 2024

Amazon y Hugging Face se unen para ejecutar modelos de IA en chips personalizados

Amazon Web Services (AWS), la división de computación en la nube de Amazon.com, anunció el miércoles…

25 mayo 2024

La UE presiona a EE.UU. para una nueva ley tecnológica: centrarse en la IA y las grandes tecnologías

El jefe de industria de la Unión Europea (UE), Thierry Breton, pidió a Estados Unidos que...

24 mayo 2024