Marcas d’água no conteúdo da IA não são suficientes, alertam os pesquisadores

Especialistas alertam que as marcas d'água em conteúdo gerado por inteligência artificial (IA) não são suficientes para combater a desinformação.

Um novo relatório da Mozilla sugere que os métodos populares para divulgar e detectar conteúdo de inteligência artificial não são eficazes o suficiente. A Mozilla propõe uma combinação de soluções técnicas, maior transparência, educação e regulamentação.

PUBLICIDADE

Outras empresas estão construindo suas próprias ferramentas para detectar deepfakes e outras informações incorretas geradas por IA. A Pindrop, por exemplo, desenvolveu uma ferramenta que detecta áudio de IA com base em padrões encontrados em chamadas telefônicas.

O Reddit está apostando em grandes modelos de linguagem (LLMs) e planeja lucrar com licenciamento de dados. A empresa possui um enorme acervo de conteúdo de usuário que pode ser usado para treinar LLMs. O Reddit também firmou um acordo com o Google, que pagará US$ 60 milhões pelo acesso ao seu conteúdo.

Leia também:

Rolar para cima