Inteligência Artificial

Google lança chip Trillium, novo membro da família de chips para data centers de IA

Publicado por
Isabella Caminoto

A Alphabet, controladora do Google, revelou na terça-feira (14) o Trillium, novo membro da família de chips para data centers de inteligência artificial (IA). A empresa afirma que o Trillium é quase cinco vezes mais rápido que a versão anterior.

“A demanda da indústria por computadores de aprendizado de máquina cresceu por um fator de 1 milhão nos últimos seis anos, aumentando aproximadamente 10 vezes a cada ano”, disse o CEO da Alphabet, Sundar Pichai, em uma teleconferência com jornalistas. “Acredito que o Google foi construído para este momento. Somos pioneiros em chips de IA há mais de uma década.”

O esforço da Alphabet para desenvolver chips personalizados para data centers de IA representa uma das poucas alternativas viáveis aos processadores líderes de mercado da Nvidia. Combinados com o software intimamente ligado às unidades de processamento tensorial (TPUs) do Google, esses chips permitiram à empresa conquistar uma fatia significativa do mercado.

A Nvidia domina cerca de 80% do mercado de chips de IA para data centers, e a grande maioria dos 20% restantes são variações das TPUs do Google. A empresa não vende o chip em si, mas sim o acesso a ele por meio de sua plataforma de computação em nuvem.

De acordo com o Google, o chip Trillium de sexta geração atingirá um desempenho de computação 4,7 vezes melhor em comparação com o TPU v5e, um chip projetado para alimentar a tecnologia que gera texto e outras mídias a partir de grandes modelos. O processador Trillium também é 67% mais eficiente em termos de energia do que o v5e.

A empresa informou que o novo chip estará disponível para seus clientes em nuvem no “final de 2024”.

Os engenheiros do Google alcançaram ganhos adicionais de desempenho aumentando a capacidade de memória de alta largura de banda e a largura de banda geral. Os modelos de IA requerem enormes quantidades de memória avançada, o que era um gargalo para aumentar ainda mais o desempenho.

A empresa projetou os chips para serem implantados em pods de 256 unidades, com capacidade de escalar para centenas de pods.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 21:03

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024