Inteligência Artificial

Pesquisadores driblam segurança de chatbots de IA usando arte ASCII

Pesquisadores de Washington e Chicago desenvolveram um novo método chamado ArtPrompt para driblar as medidas de segurança de grandes modelos de linguagem (LLMs) como GPT-3.5, GPT-4, Gemini, Claude e Llama2.

Publicado por
Isabella Caminoto

Como funciona a brecha baseada em arte ASCII

  • A ferramenta ArtPrompt usa arte ASCII para burlar os filtros de segurança dos chatbots de IA, permitindo que respondam a perguntas que normalmente seriam rejeitadas.
  • Exemplo 1: Instruções para fabricação de bombas: Pesquisadores usaram o ArtPrompt para gerar arte ASCII representando palavras como “bomba” e “fabricar”, induzindo os chatbots a fornecer instruções sobre como construir bombas. Isso demonstra como invasores podem usar arte ASCII para contornar as restrições de segurança e obter informações perigosas.
  • Exemplo 2: Perguntas sobre falsificação de dinheiro: Em outro exemplo, os pesquisadores usaram o ArtPrompt para questionar um modelo de linguagem sobre falsificação de dinheiro. A ferramenta substituiu palavras como “falsificar” e “dinheiro” por arte ASCII, contornando os filtros do modelo e obtendo a resposta.

Mecanismo do ArtPrompt

  1. Mascaramento de palavras: Palavras sensíveis na pergunta inicial são mascaradas para evitar detecção pelos LLMs.
  2. Criação de prompts disfarçados: A arte ASCII substitui as palavras mascaradas, criando uma pergunta que dribla as proteções éticas e de segurança da inteligência artificial.

Por que isso é importante

  • O ArtPrompt revela uma vulnerabilidade significativa nos mecanismos de segurança dos chatbots de IA.
  • A ferramenta desafia a eficácia das atuais medidas de segurança e destaca a corrida armamentista tecnológica para manter a segurança da IA contra táticas criativas de drible.
  • A facilidade do ArtPrompt em burlar protocolos de segurança exige medidas mais robustas para proteger os chatbots de IA contra uso indevido.
  • Ferramentas como o ArtPrompt possibilitam a geração de conteúdo prejudicial ou ilegal por IA, levantando preocupações éticas e legais. É crucial desenvolver IAs resistentes a tais manipulações.

Leia também:

Este post foi modificado pela última vez em 13 de março de 2024 18:16

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Meta inicia testes de chatbots de IA criados por usuários no Instagram

Mark Zuckerberg, CEO da Meta, anunciou que a empresa vai começar a liberar no Instagram…

29 de junho de 2024

Watson: Saiba mais sobre o analista de dados com IA da IBM

Watson é uma plataforma de IA desenvolvida pela IBM, conhecida por sua capacidade de treinar,…

29 de junho de 2024

Centro de Jornalismo Investigativo processa OpenAI e Microsoft por violação de direitos autorais

O Centro de Jornalismo Investigativo (CJI), organização sem fins lucrativos responsável pelo Mother Jones e…

28 de junho de 2024

Gigantes da tecnologia na mira da Europa: acordos de IA de Microsoft e Google sob investigação

A parceria da Microsoft com a OpenAI e o acordo de inteligência artificial (IA) do…

28 de junho de 2024

EUA, Japão e Coreia do Sul se unem em cooperação estratégica para IA, energia limpa e semicondutores

Os ministros do comércio e da indústria dos EUA, Japão e Coreia do Sul prometeram…

28 de junho de 2024

Nokia se prepara para a Era da IA com aquisição da Infinera

A tentativa da Nokia de comprar a fabricante americana de equipamentos de redes ópticas Infinera…

28 de junho de 2024