Inteligência Artificial

Pesquisadores driblam segurança de chatbots de IA usando arte ASCII

Pesquisadores de Washington e Chicago desenvolveram um novo método chamado ArtPrompt para driblar as medidas de segurança de grandes modelos de linguagem (LLMs) como GPT-3.5, GPT-4, Gemini, Claude e Llama2.

Publicado por
Isabella Caminoto

Como funciona a brecha baseada em arte ASCII

  • A ferramenta ArtPrompt usa arte ASCII para burlar os filtros de segurança dos chatbots de IA, permitindo que respondam a perguntas que normalmente seriam rejeitadas.
  • Exemplo 1: Instruções para fabricação de bombas: Pesquisadores usaram o ArtPrompt para gerar arte ASCII representando palavras como “bomba” e “fabricar”, induzindo os chatbots a fornecer instruções sobre como construir bombas. Isso demonstra como invasores podem usar arte ASCII para contornar as restrições de segurança e obter informações perigosas.
  • Exemplo 2: Perguntas sobre falsificação de dinheiro: Em outro exemplo, os pesquisadores usaram o ArtPrompt para questionar um modelo de linguagem sobre falsificação de dinheiro. A ferramenta substituiu palavras como “falsificar” e “dinheiro” por arte ASCII, contornando os filtros do modelo e obtendo a resposta.

Mecanismo do ArtPrompt

  1. Mascaramento de palavras: Palavras sensíveis na pergunta inicial são mascaradas para evitar detecção pelos LLMs.
  2. Criação de prompts disfarçados: A arte ASCII substitui as palavras mascaradas, criando uma pergunta que dribla as proteções éticas e de segurança da inteligência artificial.

Por que isso é importante

  • O ArtPrompt revela uma vulnerabilidade significativa nos mecanismos de segurança dos chatbots de IA.
  • A ferramenta desafia a eficácia das atuais medidas de segurança e destaca a corrida armamentista tecnológica para manter a segurança da IA contra táticas criativas de drible.
  • A facilidade do ArtPrompt em burlar protocolos de segurança exige medidas mais robustas para proteger os chatbots de IA contra uso indevido.
  • Ferramentas como o ArtPrompt possibilitam a geração de conteúdo prejudicial ou ilegal por IA, levantando preocupações éticas e legais. É crucial desenvolver IAs resistentes a tais manipulações.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 18:16

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

DeepSeek revela poderosa IA de raciocínio; veja

A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…

21 de novembro de 2024

OpenAI lança curso gratuito de IA para professores

A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…

20 de novembro de 2024

Robôs da Figure transformam produção da BMW; saiba como

Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…

20 de novembro de 2024

Microsoft revela agentes de IA especializados e ferramentas de automação

A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…

20 de novembro de 2024

Google Gemini agora pode lembrar coisas sobre você; entenda

O Google Gemini agora pode “lembrar” certas coisas sobre você, como seus interesses e preferências…

19 de novembro de 2024

ChatGPT supera médicos em desafio de diagnóstico; veja

Um novo estudo do UVA Health System revelou que o ChatGPT-4 alcançou uma precisão diagnóstica…

19 de novembro de 2024