европске непрофитне организације АИ форензика e АлгоритхмВатцх спровео студију, користећи Microsoft Copilot као АИ модел. Открили су да су грешке чешће када су питања постављана на језицима који нису енглески. На пример, питања постављена на немачком изазвала су најмање једну чињеничну грешку у одговору у 37% времена, док је стопа грешке за иста питања на енглеском била 20%.
ОГЛАШАВАЊЕ
Нетачности су укључивале навођење погрешног датума за изборе, пријављивање застарелих или обмањујућих бројева анкета, навођење кандидата који су се повукли из изборне трке и измишљање контроверзи о кандидатима у неким случајевима.
Ново истраживање пар европских непрофитних организација то открива Microsoft'с Бинг АИ цхатбот, недавно ребрендиран као Microsoft Copilot, дао је нетачан одговор на 1 од свака 3 основна questionс о кандидатима, анкетама и скандалима. https://t.co/20XrYDZdQa
- Тхе Васхингтон Пост (@васхингтонпост) Декабрь 15, 2023
Непрофитне организације представљене на Microsoft резултате студије. Након тога су исправљени неки недостаци, али истраживачи примећују да цхатбот и даље даје одговоре са нетачним информацијама на многа питања.
A Microsoft promeда се то питање реши пре избора у Сједињеним Државама 2024. године. Међутим, студија изазива забринутост у вези са потенцијалом АИ да допринесе конфузији и дезинформацијама око будућих избора.
ОГЛАШАВАЊЕ
Прочитајте још: