European non-profit na organisasyon AI Forensics e AlgorithmWatch isinagawa ang pag-aaral, gamit ang Microsoft Copilot bilang isang modelo ng AI. Nalaman nilang mas karaniwan ang mga error kapag nagtanong sa mga wika maliban sa Ingles. Halimbawa, ang mga tanong na itinanong sa German ay nakakuha ng hindi bababa sa isang factual error sa sagot 37% ng oras, habang ang error rate para sa parehong mga tanong sa English ay 20%.
ADVERTISING
Kasama sa mga kamalian ang pagbibigay ng maling petsa para sa mga halalan, pag-uulat ng mga luma o mapanlinlang na mga numero ng botohan, paglilista ng mga kandidatong umatras mula sa karera sa halalan, at paggawa ng mga kontrobersiya tungkol sa mga kandidato sa ilang mga kaso.
Nalaman iyon ng bagong pananaliksik mula sa isang pares ng European nonprofits MicrosoftAng Bing AI chatbot ni, kamakailang na-rebrand bilang Microsoft Copilot, nagbigay ng mga hindi tumpak na sagot sa 1 sa bawat 3 basic questiontungkol sa mga kandidato, botohan at iskandalo. https://t.co/20XrYDZdQa
- Ang Washington Post (@ washingtonpost) Disyembre 15, 2023
Mga non-profit na organisasyon na ipinakita sa Microsoft ang mga resulta ng pag-aaral. Pagkatapos nito, naayos ang ilang mga bahid, ngunit napapansin ng mga mananaliksik na ang chatbot ay nagpapakita pa rin ng mga sagot na may hindi tumpak na impormasyon sa maraming tanong.
A Microsoft promeupang malutas ang isyu bago ang 2024 na halalan sa United States. Gayunpaman, ang pag-aaral ay nagtataas ng mga alalahanin tungkol sa potensyal para sa AI na mag-ambag sa pagkalito at maling impormasyon tungkol sa mga halalan sa hinaharap.
ADVERTISING
Basahin din: