No início de maio, a OpenAI, empresa por trás do famoso ChatGPT, anunciou o GPT-4o, a mais recente versão do seu modelo de linguagem de grande escala (LLM). Essa nova ferramenta promete ser um salto gigante na forma como interagimos com a inteligência artificial (IA), combinando texto, imagens e áudio em tempo real.
As funcionalidades de texto e imagem já estão disponíveis desde o lançamento do modelo em 13 de maio. O Modo de Voz, ainda em fase de testes, será lançado em breve para usuários em fase alpha. Desenvolvedores já podem acessar o GPT-4o na API e a OpenAI planeja lançar suporte para novas capacidades de áudio e vídeo para um grupo seleto de parceiros em breve.
O GPT-4o marca um novo patamar na interação com a inteligência artificial, oferecendo uma experiência mais natural, intuitiva e eficiente. Com suas diversas funcionalidades e acessibilidade, o modelo tem o potencial de transformar a forma como trabalhamos, nos comunicamos e consumimos informações.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 16:32
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…