Na última segunda-feira (13), a OpenAI anunciou o lançamento do GPT-4o, um novo modelo de inteligência artificial (IA) mais responsivo e barato do que suas versões anteriores. O “o” em seu nome significa “omnidirecional”, referindo-se à capacidade do modelo de lidar com informações de texto, áudio e imagem.
A ferramenta pode responder a entradas de áudio em apenas 232 milissegundos, com uma média de 320 milissegundos, o que é semelhante ao tempo de resposta humano em uma conversa. Ele corresponde ao desempenho do GPT-4 Turbo em texto em inglês e código, com uma melhoria significativa em texto em idiomas não-ingleses, sendo também muito mais rápido e 50% mais barato na API. O GPT-4o é especialmente melhor na compreensão de visão e áudio em comparação com os modelos existentes.
Poucos meses após o lançamento público do ChatGPT em 2022 pela OpenAI, 100 milhões de usuários estavam usando regularmente a ferramenta, tornando-a o aplicativo de consumidor de crescimento mais rápido da história. O impacto mercadológico da ferramenta facilmente moldou os próximos passos da indústria de tecnologia e as medidas seguintes das Big Techs.
Nesta semana, os analistas de tráfego da web Similarweb anunciaram que o site do ChatGPT atingiu novos recordes de interesse, com 83,5 milhões de visitas em um único dia em maio. Não é difícil separar um período no mercado da tecnologia “Pré” e “Pós” ChatGPT, com IA sendo uma temática completamente inescapável.
A atualização liberada gratuitamente para todos os usuários (mas com interações limitadas para não assinante do plano Pro) representa o primeiro modelo da OpenAI como uma capacidade de interação multimidiática e uma compreensão maior de diferentes tipos de conteúdos em relação aos seus antecessores.
O modelo também apresenta uma melhoria significativa em processamento de linguagem natural, adquirindo aspectos quase humanos em suas interações. A seguir reunimos alguns dos usos e diferenças práticas do GPT-4o:
A OpenAI também divulgou um vídeo em que o ChatGPT está avaliando a roupa do usuário para uma entrevista de emprego e um em que a ferramenta compõe música sozinha:
O uso por comando de voz da ferramenta ainda será liberado ao longo das próximas semanas, além de que também serão explorados recursos de vídeo em um momento futuro. Também está disponível para download um aplicativo da ferramenta para IOS e Android.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 20:25
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…