Inteligência Artificial

Busca de vídeos do Gemini comete erro factual em demonstração

Publicado por
Vinicius Siqueira

Uma das demonstrações mais chamativas do Gemini durante o evento do Google I/O foi mais uma vez marcada pela falha fatal sempre presente de todos os grandes modelos de linguagem até o momento: fornecer – com confiança – a resposta errada.

Durante um vídeo de destaque para “Pesquisa na era Gemini”, o Google demonstrou a pesquisa de vídeo, que permite pesquisar falando sobre um clipe de vídeo. O exemplo é um vídeo de uma alavanca de avanço de filme presa em uma câmera analógica com a consulta “por que a alavanca não está se movendo completamente”, que o Gemini reconhece e fornece algumas sugestões para resolver. Muito impressionante!

Google

O único problema é que as respostas que ele apresenta são, em sua maioria, ruins, e o Google literalmente destacou a sugestão de “abrir a porta traseira e remover gentilmente o filme”.

Esta é a segunda vez que o Google produz um recurso de destaque mostrando um de seus próprios produtos de IA dando uma resposta errada — no ano passado, o chatbot Bard (atual Gemini) afirmou com confiança que o Telescópio Espacial James Webb foi o primeiro a fotografar um planeta fora do nosso Sistema Solar

No início deste ano, o chatbot também foi duramente criticado por se recusar a produzir imagens de pessoas brancas. Ele foi criticado por ser muito “consciente” e desenvolver fotos cheias de imprecisões históricas, como nazistas asiáticos e pais fundadores negros. A liderança do Google pediu desculpas, dizendo que “erraram o alvo”.

O vídeo de terça-feira destaca os perigos dos chatbots de IA, que têm produzido alucinações, ou previsões incorretas, e dando aos usuários conselhos ruins. No ano passado, usuários do Bing, o chatbot de IA da Microsoft, relataram interações estranhas com o bot. Ele chamava os usuários de delirantes, tentava fazê-los duvidar do ano atual e até confessava seu amor a alguns usuários.

Empresas que utilizam essas ferramentas de IA também podem ser legalmente responsáveis pelo que seus bots dizem. Em fevereiro, um tribunal canadense responsabilizou a Air Canada por seu chatbot fornecer informações erradas a um passageiro sobre descontos de luto.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 17:40

Vinicius Siqueira

Posts recentes

TikTok lança Symphony Creative Studio; veja

O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…

17 de novembro de 2024

Aplicativo de desktop do ChatGPT ganha integração direta com aplicativos

A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…

17 de novembro de 2024

OpenAI apresenta roteiro de IA para os EUA

A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…

14 de novembro de 2024

Agentes de pesquisa de IA projetam novas proteínas para combater a COVID-19

Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…

14 de novembro de 2024

O ‘Operator’ da OpenAI está chegando

A OpenAI está planejando lançar o 'Operator' em janeiro, uma nova ferramenta de inteligência artificial…

14 de novembro de 2024

Meta dá o primeiro passo para monetizar o Threads com anúncios

A Meta Platforms planeja introduzir anúncios em seu aplicativo de mídia social Threads no início…

13 de novembro de 2024