Um grupo de pesquisadores da Anthropic descobriu uma nova técnica de “desvio de segurança” chamada “many-shot jailbreaking” (quebra de proteção em vários disparos). Essa técnica explora as janelas de contexto expandidas para driblar as proteções de segurança em modelos de linguagem grande (LLMs).
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
A descoberta do “many-shot jailbreaking” destaca a faca de dois gumes das janelas de contexto expandidas em LLMs. Por um lado, entradas mais longas e o aprendizado no contexto tornam os modelos mais úteis. Por outro lado, esses mesmos recursos também abrem caminho para novos tipos de vulnerabilidades.
É importante que pesquisadores e empresas de inteligência artificial trabalhem em conjunto para desenvolver LLMs cada vez mais robustos e seguros.
Leia também:
Este post foi modificado pela última vez em 3 de abril de 2024 12:34
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…