Busca de vídeos do Gemini comete erro factual em demonstração
Créditos da imagem: Google

Busca de vídeos do Gemini comete erro factual em demonstração

Uma das demonstrações mais chamativas do Gemini durante o evento do Google I/O foi mais uma vez marcada pela falha fatal sempre presente de todos os grandes modelos de linguagem até o momento: fornecer – com confiança – a resposta errada.

PUBLICIDADE

Durante um vídeo de destaque para “Pesquisa na era Gemini”, o Google demonstrou a pesquisa de vídeo, que permite pesquisar falando sobre um clipe de vídeo. O exemplo é um vídeo de uma alavanca de avanço de filme presa em uma câmera analógica com a consulta “por que a alavanca não está se movendo completamente”, que o Gemini reconhece e fornece algumas sugestões para resolver. Muito impressionante!

Google

O único problema é que as respostas que ele apresenta são, em sua maioria, ruins, e o Google literalmente destacou a sugestão de “abrir a porta traseira e remover gentilmente o filme”.

Esta é a segunda vez que o Google produz um recurso de destaque mostrando um de seus próprios produtos de IA dando uma resposta errada — no ano passado, o chatbot Bard (atual Gemini) afirmou com confiança que o Telescópio Espacial James Webb foi o primeiro a fotografar um planeta fora do nosso Sistema Solar

PUBLICIDADE

No início deste ano, o chatbot também foi duramente criticado por se recusar a produzir imagens de pessoas brancas. Ele foi criticado por ser muito “consciente” e desenvolver fotos cheias de imprecisões históricas, como nazistas asiáticos e pais fundadores negros. A liderança do Google pediu desculpas, dizendo que “erraram o alvo”.

O vídeo de terça-feira destaca os perigos dos chatbots de IA, que têm produzido alucinações, ou previsões incorretas, e dando aos usuários conselhos ruins. No ano passado, usuários do Bing, o chatbot de IA da Microsoft, relataram interações estranhas com o bot. Ele chamava os usuários de delirantes, tentava fazê-los duvidar do ano atual e até confessava seu amor a alguns usuários.

Empresas que utilizam essas ferramentas de IA também podem ser legalmente responsáveis pelo que seus bots dizem. Em fevereiro, um tribunal canadense responsabilizou a Air Canada por seu chatbot fornecer informações erradas a um passageiro sobre descontos de luto.

PUBLICIDADE

Leia também:

Rolar para cima