AI geeft onnauwkeurige antwoorden over verkiezingen/AI-leugens
Afbeeldingscredits: Curto Nieuws/BingAI

Uit onderzoek blijkt dat AI nog steeds moet worden verbeterd om nauwkeurige informatie over verkiezingen te kunnen bieden

Kunstmatige intelligentie (AI) heeft het potentieel om een ​​revolutie teweeg te brengen in de manier waarop we onszelf informeren over verkiezingen. Uit een recent onderzoek is echter gebleken dat AI-chatbots nog steeds onnauwkeurige antwoorden geven op één op de drie basisvragen over kandidaten, peilingen, schandalen en verkiezingen.

Europese non-profit organisaties AI-forensisch onderzoek e Algoritme Kijk voerde het onderzoek uit met behulp van de Microsoft Copilot als AI-model. Ze ontdekten dat fouten vaker voorkwamen als vragen in andere talen dan het Engels werden gesteld. Vragen die in het Duits werden gesteld, leidden bijvoorbeeld in 37% van de gevallen tot minstens één feitelijke fout in het antwoord, terwijl het foutenpercentage voor dezelfde vragen in het Engels 20% bedroeg.

PUBLICITEIT

Onnauwkeurigheden waren onder meer het opgeven van de verkeerde verkiezingsdatum, het rapporteren van verouderde of misleidende opiniepeilingsnummers, het opsommen van kandidaten die zich hadden teruggetrokken uit de verkiezingsrace en het verzinnen van controverses over kandidaten in sommige gevallen.

Non-profitorganisaties presenteerden zich aan de Microsoft de resultaten van de studie. Daarna zijn enkele tekortkomingen verholpen, maar onderzoekers merken op dat de chatbot op veel vragen nog steeds antwoorden met onnauwkeurige informatie presenteert.

A Microsoft promeu lost het probleem op vóór de verkiezingen van 2024 in de Verenigde Staten. Het onderzoek roept echter zorgen op over het potentieel dat AI kan bijdragen aan verwarring en verkeerde informatie rond toekomstige verkiezingen.

PUBLICITEIT

Lees ook:

omhoog scrollen