Organitzacions europees sense ànim de lucre AI Forense e AlgorithmWatch realitzat l'estudi, utilitzant el Microsoft Copilot com a model d'IA. Van trobar que els errors eren més freqüents quan es feien preguntes en idiomes diferents de l'anglès. Per exemple, les preguntes fetes en alemany van provocar almenys un error de fet a la resposta el 37% de les vegades, mentre que la taxa d'error per a les mateixes preguntes en anglès va ser del 20%.
PUBLICITAT
Les imprecisions incloïen donar la data equivocada per a les eleccions, informar de números de votació obsolets o enganyosos, enumerar els candidats que s'havien retirat de la carrera electoral i inventar controvèrsies sobre els candidats en alguns casos.
Una nova investigació d'un parell d'entitats europees sense ànim de lucre ho troba Microsoftel chatbot de Bing AI, recentment rebatejat com a Microsoft Copilot, va donar respostes inexactes a 1 de cada 3 bàsiques questions sobre candidats, enquestes i escàndols. https://t.co/20XrYDZdQa
- The Washington Post (@washingtonpost) Desembre 15, 2023
Organitzacions sense ànim de lucre presentades a la Microsoft els resultats de l'estudi. Després d'això, es van solucionar alguns defectes, però els investigadors assenyalen que el chatbot encara presenta respostes amb informació inexacta a moltes preguntes.
A Microsoft promeresoleu el problema abans de les eleccions del 2024 als Estats Units. Tanmateix, l'estudi planteja preocupacions sobre el potencial de l'IA per contribuir a la confusió i la desinformació al voltant de les futures eleccions.
PUBLICITAT
Llegiu també: