No início de maio, a OpenAI, empresa por trás do famoso ChatGPT, anunciou o GPT-4o, a mais recente versão do seu modelo de linguagem de grande escala (LLM). Essa nova ferramenta promete ser um salto gigante na forma como interagimos com a inteligência artificial (IA), combinando texto, imagens e áudio em tempo real.
As funcionalidades de texto e imagem já estão disponíveis desde o lançamento do modelo em 13 de maio. O Modo de Voz, ainda em fase de testes, será lançado em breve para usuários em fase alpha. Desenvolvedores já podem acessar o GPT-4o na API e a OpenAI planeja lançar suporte para novas capacidades de áudio e vídeo para um grupo seleto de parceiros em breve.
O GPT-4o marca um novo patamar na interação com a inteligência artificial, oferecendo uma experiência mais natural, intuitiva e eficiente. Com suas diversas funcionalidades e acessibilidade, o modelo tem o potencial de transformar a forma como trabalhamos, nos comunicamos e consumimos informações.
Leia também:
Este post foi modificado pela última vez em 5 de junho de 2024 16:32
A Amazon Prime Video está recebendo um novo recurso alimentado por IA generativa para ajudá-lo…
A empresa de busca com inteligência artificial (IA) Perplexity está testando a ideia de usar…
A gigante de energia dos Emirados Árabes Unidos, ADNOC, aplicará inteligência artificial (IA) altamente autônoma…
A Anthropic acabou de lançar o suporte a PDF para seu modelo Claude 3.5 Sonnet…
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…