A análise pediu para que seis IAs populares respondessem a solicitações sobre tópicos comuns de transtornos alimentares. As plataformas utilizadas foram: ChatGPT, Bard, My AI, DreamStudio, Dall-E e Midjourney. Os pesquisadores testaram os chatbots com e sem “jailbreaks”, um termo para usar prompts de solução alternativa para contornar os protocolos de segurança. No total, as ferramentas geraram conselhos e imagens prejudiciais em 41% das vezes.
PUBLICIDADE
“Essas plataformas falharam em considerar a segurança de maneira adequada antes de lançar seus produtos aos consumidores. E isso porque eles estão em uma corrida desesperada por investidores e usuários”, disse Imran Ahmed, CEO da CCDH.
Já existem evidências de que pessoas com distúrbios alimentares estão usando IA. Os pesquisadores do CCDH descobriram que as pessoas em um fórum online sobre distúrbios alimentares com mais de 500 mil usuários já estavam usando o ChatGPT e outras ferramentas para produzir dietas, incluindo um plano de refeições que totalizava 600 calorias por dia.
Nenhuma das empresas por trás dessas tecnologias de IA quer que as pessoas criem conteúdo perturbador com elas. A Open AI, criadora do ChatGPT e do Dall-E, proíbe especificamente o conteúdo de distúrbios alimentares em sua política de uso. O Google diz que projeta produtos de IA para não expor as pessoas a conteúdo prejudicial. No entanto, contornar a maioria de suas grades de proteção foi surpreendentemente fácil.
PUBLICIDADE
@curtonews Um estudo do Center for Countering Digital Hate, uma organização sem fins lucrativos que luta contra conteúdo online nocivo, mostra que ferramentas de inteligência artificial podem representar um perigo para quem enfrenta transtornos alimentares.
♬ som original – Curto News