Europese non-profit organisaties AI-forensisch onderzoek e Algoritme Kijk voerde het onderzoek uit met behulp van de Microsoft Copilot als AI-model. Ze ontdekten dat fouten vaker voorkwamen als vragen in andere talen dan het Engels werden gesteld. Vragen die in het Duits werden gesteld, leidden bijvoorbeeld in 37% van de gevallen tot minstens één feitelijke fout in het antwoord, terwijl het foutenpercentage voor dezelfde vragen in het Engels 20% bedroeg.
PUBLICITEIT
Onnauwkeurigheden waren onder meer het opgeven van de verkeerde verkiezingsdatum, het rapporteren van verouderde of misleidende opiniepeilingsnummers, het opsommen van kandidaten die zich hadden teruggetrokken uit de verkiezingsrace en het verzinnen van controverses over kandidaten in sommige gevallen.
Uit nieuw onderzoek van een paar Europese non-profitorganisaties blijkt dat Microsoft's Bing AI-chatbot, onlangs omgedoopt tot Microsoft Copilot, gaf onnauwkeurige antwoorden op 1 op de 3 basisvragen questionHet gaat over kandidaten, peilingen en schandalen. https://t.co/20XrYDZdQa
- The Washington Post (@washingtonpost) 15 december 2023
Non-profitorganisaties presenteerden zich aan de Microsoft de resultaten van de studie. Daarna zijn enkele tekortkomingen verholpen, maar onderzoekers merken op dat de chatbot op veel vragen nog steeds antwoorden met onnauwkeurige informatie presenteert.
A Microsoft promeu lost het probleem op vóór de verkiezingen van 2024 in de Verenigde Staten. Het onderzoek roept echter zorgen op over het potentieel dat AI kan bijdragen aan verwarring en verkeerde informatie rond toekomstige verkiezingen.
PUBLICITEIT
Lees ook: