Europeiske ideelle organisasjoner AI Forensics e AlgorithmWatch utførte studien ved å bruke Microsoft Copilot som en AI-modell. De fant ut at feil var mer vanlig når spørsmål ble stilt på andre språk enn engelsk. For eksempel fremkalte spørsmål stilt på tysk minst én faktafeil i svaret 37 % av gangene, mens feilprosenten for de samme spørsmålene på engelsk var 20 %.
REKLAME
Unøyaktigheter inkluderte å oppgi feil dato for valg, rapportering av utdaterte eller misvisende meningstall, liste opp kandidater som hadde trukket seg fra valgkampen og fabrikkering av kontroverser om kandidater i noen tilfeller.
Ny forskning fra et par europeiske ideelle organisasjoner finner det Microsoftsin Bing AI chatbot, nylig omdøpt til Microsoft Copilot, ga unøyaktige svar på 1 av 3 grunnleggende questions om kandidater, meningsmålinger og skandaler. https://t.co/20XrYDZdQa
- Washington Post (@washingtonpost) Desember 15, 2023
Non-profit organisasjoner presentert for Microsoft resultatene av studien. Etter det ble noen feil rettet, men forskere bemerker at chatboten fortsatt gir svar med unøyaktig informasjon på mange spørsmål.
A Microsoft promefor å løse problemet før valget i 2024 i USA. Studien vekker imidlertid bekymring for potensialet for AI til å bidra til forvirring og feilinformasjon rundt fremtidige valg.
REKLAME
Les også: