Inteligência Artificial

Cerebras lança ferramenta de inferência de IA para desafiar a Nvidia

Publicado por
Isabella Caminoto

A Cerebras Systems lançou na terça-feira (27) uma ferramenta para desenvolvedores de inteligência artificial (IA) que permite que eles acessem os chips gigantescos da startup para executar aplicativos, oferecendo o que diz ser uma opção muito mais barata do que os processadores padrão da indústria, da Nvidia.

O acesso às unidades de processamento gráfico (GPUs) da Nvidia – muitas vezes por meio de um provedor de computação em nuvem – para treinar e implantar grandes modelos de inteligência artificial usados para aplicativos como o ChatGPT da OpenAI pode ser difícil de obter e caro de executar, um processo que os desenvolvedores chamam de inferência.

“Estamos entregando desempenho que não pode ser alcançado por uma GPU”, disse o CEO da Cerebras, Andrew Feldman, em uma entrevista à Reuters. “Estamos fazendo isso com a mais alta precisão e estamos oferecendo isso pelo menor preço.”

A parte de inferência do mercado de IA é esperada que seja de rápido crescimento e atraente – no final das contas valendo dezenas de bilhões de dólares se consumidores e empresas adotarem ferramentas de IA.

A empresa com sede em Sunnyvale, Califórnia, planeja oferecer vários tipos do produto de inferência por meio de uma chave de desenvolvedor e sua nuvem. A empresa também venderá seus sistemas de IA para clientes que preferem operar seus próprios data centers.

Os chips da Cerebras – cada um do tamanho de um prato de jantar e chamados de Wafer Scale Engines – evitam um dos problemas com a computação de dados de IA: os dados computados por grandes modelos que alimentam aplicativos de IA normalmente não cabem em um único chip e podem exigir centenas ou milhares de chips encadeados.

Isso significa que os chips da Cerebras podem alcançar desempenhos mais rápidos, disse Feldman.

Ela planeja cobrar dos usuários tão pouco quanto 10 centavos por milhão de tokens, que são uma das maneiras pelas quais as empresas podem medir a quantidade de dados de saída de um grande modelo.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 13:27

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepMind dá um salto gigante na computação quântica com o AlphaQubit

O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…

21 de novembro de 2024

ChatGPT está mais perto de lançar sua IA visual

Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…

21 de novembro de 2024

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024