Especialistas alertam que as marcas d'água em conteúdo gerado por inteligência artificial (IA) não são suficientes para combater a desinformação.
Um novo relatório da Mozilla sugere que os métodos populares para divulgar e detectar conteúdo de inteligência artificial não são eficazes o suficiente. A Mozilla propõe uma combinação de soluções técnicas, maior transparência, educação e regulamentação.
Outras empresas estão construindo suas próprias ferramentas para detectar deepfakes e outras informações incorretas geradas por IA. A Pindrop, por exemplo, desenvolveu uma ferramenta que detecta áudio de IA com base em padrões encontrados em chamadas telefônicas.
O Reddit está apostando em grandes modelos de linguagem (LLMs) e planeja lucrar com licenciamento de dados. A empresa possui um enorme acervo de conteúdo de usuário que pode ser usado para treinar LLMs. O Reddit também firmou um acordo com o Google, que pagará US$ 60 milhões pelo acesso ao seu conteúdo.
Leia também:
Este post foi modificado pela última vez em 2 de março de 2024 18:15
As remessas globais de headsets de realidade aumentada e virtual (AR/VR) devem crescer 41,4% em…
O co-fundador e CEO Sam Altman mencionou que a OpenAI provavelmente modificará sua estrutura corporativa…
Fei-Fei Li, renomada pesquisadora de inteligência artificial (IA) conhecida como a "Madrinha da IA", lançou…
O último modelo da OpenAI, "o1", supostamente marcou um QI de cerca de 120 no…
A Tencent acaba de apresentar o GameGen-O, um inovador modelo de inteligência artificial (IA) capaz…
O Google DeepMind acaba de apresentar dois novos sistemas de inteligência artificial (IA) que avançam…