Especialistas alertam que as marcas d'água em conteúdo gerado por inteligência artificial (IA) não são suficientes para combater a desinformação.
Um novo relatório da Mozilla sugere que os métodos populares para divulgar e detectar conteúdo de inteligência artificial não são eficazes o suficiente. A Mozilla propõe uma combinação de soluções técnicas, maior transparência, educação e regulamentação.
Outras empresas estão construindo suas próprias ferramentas para detectar deepfakes e outras informações incorretas geradas por IA. A Pindrop, por exemplo, desenvolveu uma ferramenta que detecta áudio de IA com base em padrões encontrados em chamadas telefônicas.
O Reddit está apostando em grandes modelos de linguagem (LLMs) e planeja lucrar com licenciamento de dados. A empresa possui um enorme acervo de conteúdo de usuário que pode ser usado para treinar LLMs. O Reddit também firmou um acordo com o Google, que pagará US$ 60 milhões pelo acesso ao seu conteúdo.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 18:15
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…
A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…
A OpenAI acabou de lançar uma série de atualizações para desenvolvedores no 9º dia do…