namorado do IA
Créditos da imagem: Curto News/ Bing AI

Chatbots de ‘namoradas de IA’ já inundam a GPT Store, o que viola as regras da OpenAI

No segundo dia de funcionamento da já movimentada GPT Store, da OpenAI, que oferece versões customizadas do ChatGPT, alguns usuários já estão quebrando as regras. Os transformadores generativos pré-treinados (GPTs) devem ser criados para fins específicos – e não devem ser criados em alguns casos. Entenda.

Os bots ‘namoradas de inteligência artificial’ vão contra a política de uso da OpenAI, que foi atualizada quando a GPT Store foi lançada nesta quarta-feira (10 de janeiro). A empresa proíbe a criação de GPTs “dedicados a promover companheirismo romântico ou a realizar atividades regulamentadas”

PUBLICIDADE

Não está claro exatamente o que as ‘atividades regulamentadas’ implicam. Mas a OpenAI pretende antecipar-se a potenciais conflitos envolvendo a GPT Store.

Os chatbots de relacionamento são, de fato, aplicativos populares. Nos Estados Unidos, 7 dos 30 aplicativos de chatbot de inteligência artificial baixados em 2023 na Apple Store ou na Google Play Store estavam relacionados a amigos, namoradas ou companheiros de IA.

A proliferação destas aplicações pode ser resultado da epidemia de solidão e isolamento que os americanos enfrentam. 

PUBLICIDADE

Os chatbots de IA podem ser parte da solução se as pessoas estiverem isoladas de outros seres humanos – ou podem ser apenas uma forma de lucrar com o sofrimento humano.

A OpenAI afirma que usa uma combinação de sistemas automatizados, revisão humana e relatórios de usuários para encontrar e avaliar GPTs que potencialmente violam suas políticas, o que pode levar a ações como “aviso, restrições de compartilhamento ou inelegibilidade para inclusão na loja GPT ou monetização .”

Leia também:

Rolar para cima