Pesquisadores da Universidade de Chicago desenvolveram o “Nightshade”, uma ferramenta que visa impedir que modelos de inteligência artificial (IA) usem obras de artistas sem permissão para fins de treinamento. Cinco dias após seu lançamento, a ferramenta já atingiu 250 mil downloads.
Nightshade
O Nightshade teve uma aceitação notável, com 250.000 downloads cinco dias após seu lançamento, indicando uma forte demanda entre os artistas para proteger suas criações contra treinamento não autorizado de inteligência artificial.
A base de usuários do Nightshade se estende por todo o mundo, destacando o desafio universal que os artistas enfrentam para proteger seu trabalho da exploração da IA e o interesse global em soluções como o Nightshade.
O Nightshade altera as obras de arte em nível de pixel para enganar os algoritmos de IA, fazendo-os gerar resultados incorretos. Esta abordagem de “envenenamento” visa aumentar os custos associados à formação em dados não licenciados, impulsionando práticas de licenciamento adequadas.
As medidas proativas tomadas pelos investigadores e a recepção positiva da comunidade artística sugerem uma colaboração crescente entre tecnólogos e criadores. Esta parceria é essencial para o desenvolvimento de práticas éticas de IA que respeitem e protejam os direitos de propriedade intelectual.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:26
A Pika Labs acaba de lançar a versão 2.0 de seu gerador de vídeo de…
A OpenAI lançou Projetos (Projects) para o ChatGPT no 7º dia de seu evento '12…
A Microsoft acaba de lançar o Phi-4, um modelo de linguagem de 14B parâmetros que…
A Meta está pedindo ao Procurador-Geral da Califórnia, Rob Bonta, que bloqueie a transição planejada…
A Anthropic introduziu o Clio, um novo sistema que revela padrões em como as pessoas…
A Anthropic lançou silenciosamente seu modelo de inteligência artificial (IA) mais rápido, o Claude 3.5…