A nova inteligência artificial (IA) da Meta testa vulnerabilidades de modelos de IA de código aberto. Saiba mais!
A Meta, empresa-mãe do Facebook, está introduzindo novas ferramentas para proteger e assegurar seus modelos de IA de código aberto
Denominado ‘Purple Llama’, o projeto oferece aos desenvolvedores uma série de ferramentas para testar seus modelos, garantindo segurança antes do lançamento – com planos de adicionar mais ferramentas com o tempo.
A empresa afirma estar lançando o conjunto de ferramentas de segurança para “construir confiança nos desenvolvedores impulsionando essa nova onda de inovação” e que o investimento no projeto “será abrangente”.
Entre as primeiras ferramentas disponíveis no Purple Llama está o Llama Guard, um modelo pré-treinado aberto que os desenvolvedores podem usar para ‘ajudar a defender contra a geração de saídas potencialmente arriscadas’.
Llama Guard foi treinado com uma combinação de conjuntos de dados publicamente disponíveis e é projetado para detectar tipos comuns de conteúdo arriscado. A Meta deseja que os desenvolvedores personalizem o Llama Guard para suportar casos de uso e facilitar a adoção das melhores práticas.
Outra nova oferta do Purple Llama é o CyberSec Eval, um conjunto de benchmarks de avaliação de segurança cibernética para modelos de linguagem grandes.
O CyberSec Eval contém testes para quantificar os riscos de segurança cibernética nos modelos de linguagem grandes, bem como ferramentas para avaliar a frequência de sugestões de código inseguro e para dificultar a geração de código malicioso nos modelos.
O próprio projeto Purple Llama é nomeado após o popular modelo de IA de código aberto da Meta, Llama, e um conceito do mundo da cibersegurança onde equipes de ataque (red teams) atacam sistemas e equipes de defesa (blue teams) protegem. Quando as duas cores se combinam, elas criam a cor roxa”, disse Sy Choudhury, diretor de desenvolvimento de negócios e parcerias de IA da Meta, durante um painel no AI Summit New York 2023.
Os recursos do projeto Purple Llama serão licenciados de forma permissiva para permitir o uso comercial, bem como para pesquisa. A Meta afirmou que membros da recém-formada AI Alliance, da qual a empresa é membro fundador, trabalharão para aprimorar as ferramentas e disponibilizá-las de forma mais ampla para a comunidade de código aberto.
“Acreditamos que este é um passo importante para possibilitar a colaboração entre desenvolvedores e padronizar ferramentas de confiança e segurança para a inteligência artificial generativa”, conforme um post no blog da Meta.
Leia também:
Este post foi modificado pela última vez em 15 de dezembro de 2023 18:02
Uma imagem comovente de barracas de refugiados formando a frase "Todos os olhos em Rafah"…
Data centers são instalações físicas compostas por uma rede de servidores de computador e componentes…
Grandes empresas de tecnologia, como Meta, Microsoft, AMD e Broadcom, anunciaram nesta quinta-feira (30) o…
Equipes de robôs se enfrentaram em um campo de futebol miniatura de grama artificial, enquanto…
A startup francesa de inteligência artificial (IA), Mistral, acaba de lançar o Codestral, seu primeiro…
Os novos recursos, similares aos oferecidos pelo Fitbit, como a pontuação de energia (Energy Score)…