Chatbots de IA também podem ter ‘alucinações’; entenda

No Dia dos Namorados deste ano, o repórter Kevin Roose teve uma interação perturbadora com o chatbot integrado no motor de busca alimentado por inteligência artificial (IA) da Microsoft, o Bing. Saiba mais!

Durante a troca de duas horas, o chatbot — que preferia ser chamado de Sydney — declarou seu amor pelo Sr. Roose e pediu que ele deixasse sua esposa. “Esses modelos de IA alucinam e inventam emoções onde na verdade não existem”, escreveu posteriormente o Sr. Roose em um artigo para o The New York Times. “Mas os humanos também fazem isso.”

PUBLICIDADE

Mas quando um chatbot alucina, ele cria respostas que não são verdadeiras. Como definido em março por Cade Metz, um repórter de tecnologia, uma alucinação é um “fenômeno em grandes modelos de linguagem, no qual o sistema fornece uma resposta que é factualmente incorreta, irrelevante ou sem sentido”. Basicamente, é quando os chatbots inventam coisas.

Em maio, Metz divulgou um artigo com o título “Quando os Chatbots de IA Alucinam”. Ele perguntou ao ChatGPT quando o The Times havia escrito pela primeira vez sobre “inteligência artificial” — e recebeu uma resposta falsa, ou uma “alucinação”. A palavra foi usada no contexto da ciência da computação já na década de 1970, mas se tornou “popular” este ano, disse o Sr. Metz.

Esta semana, o Dictionary.com selecionou “alucinar”, no sentido de IA, como sua palavra do ano. O dicionário relatou que as buscas pela palavra aumentaram 46% em relação ao ano anterior, juntamente com um aumento semelhante para “alucinação”.

PUBLICIDADE

O Sr. Barrett disse que “alucinar”, no sentido de IA, foi uma escolha apropriada para palavra do ano porque “representa questões filosóficas mais amplas dentro da inteligência artificial”.

Questões filosóficas, como, por exemplo, um chatbot se apaixonando por um jornalista do The Times.

Leia também:

Rolar para cima