No início de maio, a OpenAI, empresa por trás do famoso ChatGPT, anunciou o GPT-4o, a mais recente versão do seu modelo de linguagem de grande escala (LLM). Essa nova ferramenta promete ser um salto gigante na forma como interagimos com a inteligência artificial (IA), combinando texto, imagens e áudio em tempo real.
As funcionalidades de texto e imagem já estão disponíveis desde o lançamento do modelo em 13 de maio. O Modo de Voz, ainda em fase de testes, será lançado em breve para usuários em fase alpha. Desenvolvedores já podem acessar o GPT-4o na API e a OpenAI planeja lançar suporte para novas capacidades de áudio e vídeo para um grupo seleto de parceiros em breve.
O GPT-4o marca um novo patamar na interação com a inteligência artificial, oferecendo uma experiência mais natural, intuitiva e eficiente. Com suas diversas funcionalidades e acessibilidade, o modelo tem o potencial de transformar a forma como trabalhamos, nos comunicamos e consumimos informações.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 16:32
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…