As organizações sem fins lucrativos europeias AI Forensics e AlgorithmWatch realizaram o estudo, usando o Microsoft Copilot como modelo de IA. Eles descobriram que os erros eram mais comuns quando as perguntas eram feitas em idiomas diferentes do inglês. Por exemplo, as perguntas feitas em alemão provocaram pelo menos um erro factual na resposta em 37% das vezes, enquanto a taxa de erro para as mesmas perguntas em inglês foi de 20%.
PUBLICIDADE
As imprecisões incluíam dar a data errada para as eleições, relatar números de pesquisas desatualizados ou equivocados, listar candidatos que haviam se retirado da corrida eleitoral e inventar controvérsias sobre candidatos em alguns casos.
New research from a pair of European nonprofits finds that Microsoft’s Bing AI chatbot, recently rebranded as Microsoft Copilot, gave inaccurate answers to 1 out of every 3 basic questions about candidates, polls and scandals. https://t.co/20XrYDZdQa
— The Washington Post (@washingtonpost) December 15, 2023
As organizações sem fins lucrativos apresentaram à Microsoft os resultados do estudo. Depois disso, algumas falhas foram corrigidas, mas os pesquisadores observam que o chatbot ainda apresenta respostas com informações imprecisas para muitas perguntas.
A Microsoft prometeu sanar a questão antes das eleições de 2024 nos Estados Unidos. No entanto, o estudo levanta preocupações sobre o potencial da IA para contribuir para a confusão e desinformação em torno de eleições futuras.
PUBLICIDADE
Leia também: