Pesquisadores da Universidade de Chicago desenvolveram o “Nightshade”, uma ferramenta que visa impedir que modelos de inteligência artificial (IA) usem obras de artistas sem permissão para fins de treinamento. Cinco dias após seu lançamento, a ferramenta já atingiu 250 mil downloads.
O Nightshade teve uma aceitação notável, com 250.000 downloads cinco dias após seu lançamento, indicando uma forte demanda entre os artistas para proteger suas criações contra treinamento não autorizado de inteligência artificial.
A base de usuários do Nightshade se estende por todo o mundo, destacando o desafio universal que os artistas enfrentam para proteger seu trabalho da exploração da IA e o interesse global em soluções como o Nightshade.
O Nightshade altera as obras de arte em nível de pixel para enganar os algoritmos de IA, fazendo-os gerar resultados incorretos. Esta abordagem de “envenenamento” visa aumentar os custos associados à formação em dados não licenciados, impulsionando práticas de licenciamento adequadas.
As medidas proativas tomadas pelos investigadores e a recepção positiva da comunidade artística sugerem uma colaboração crescente entre tecnólogos e criadores. Esta parceria é essencial para o desenvolvimento de práticas éticas de IA que respeitem e protejam os direitos de propriedade intelectual.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:26
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…
A OpenAI acaba de apresentar um plano abrangente para a infraestrutura de inteligência artificial (IA))…
Pesquisadores de Stanford acabaram de apresentar o Virtual Lab, uma plataforma de pesquisa de inteligência…
A OpenAI está planejando lançar o 'Operator' em janeiro, uma nova ferramenta de inteligência artificial…
A Meta Platforms planeja introduzir anúncios em seu aplicativo de mídia social Threads no início…