A nova inteligência artificial (IA) da Meta testa vulnerabilidades de modelos de IA de código aberto. Saiba mais!
A Meta, empresa-mãe do Facebook, está introduzindo novas ferramentas para proteger e assegurar seus modelos de IA de código aberto
Denominado ‘Purple Llama’, o projeto oferece aos desenvolvedores uma série de ferramentas para testar seus modelos, garantindo segurança antes do lançamento – com planos de adicionar mais ferramentas com o tempo.
A empresa afirma estar lançando o conjunto de ferramentas de segurança para “construir confiança nos desenvolvedores impulsionando essa nova onda de inovação” e que o investimento no projeto “será abrangente”.
Entre as primeiras ferramentas disponíveis no Purple Llama está o Llama Guard, um modelo pré-treinado aberto que os desenvolvedores podem usar para ‘ajudar a defender contra a geração de saídas potencialmente arriscadas’.
Llama Guard foi treinado com uma combinação de conjuntos de dados publicamente disponíveis e é projetado para detectar tipos comuns de conteúdo arriscado. A Meta deseja que os desenvolvedores personalizem o Llama Guard para suportar casos de uso e facilitar a adoção das melhores práticas.
Outra nova oferta do Purple Llama é o CyberSec Eval, um conjunto de benchmarks de avaliação de segurança cibernética para modelos de linguagem grandes.
O CyberSec Eval contém testes para quantificar os riscos de segurança cibernética nos modelos de linguagem grandes, bem como ferramentas para avaliar a frequência de sugestões de código inseguro e para dificultar a geração de código malicioso nos modelos.
O próprio projeto Purple Llama é nomeado após o popular modelo de IA de código aberto da Meta, Llama, e um conceito do mundo da cibersegurança onde equipes de ataque (red teams) atacam sistemas e equipes de defesa (blue teams) protegem. Quando as duas cores se combinam, elas criam a cor roxa”, disse Sy Choudhury, diretor de desenvolvimento de negócios e parcerias de IA da Meta, durante um painel no AI Summit New York 2023.
Os recursos do projeto Purple Llama serão licenciados de forma permissiva para permitir o uso comercial, bem como para pesquisa. A Meta afirmou que membros da recém-formada AI Alliance, da qual a empresa é membro fundador, trabalharão para aprimorar as ferramentas e disponibilizá-las de forma mais ampla para a comunidade de código aberto.
“Acreditamos que este é um passo importante para possibilitar a colaboração entre desenvolvedores e padronizar ferramentas de confiança e segurança para a inteligência artificial generativa”, conforme um post no blog da Meta.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 18:02
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…