Pesquisadores de Washington e Chicago desenvolveram um novo método chamado ArtPrompt para driblar as medidas de segurança de grandes modelos de linguagem (LLMs) como GPT-3.5, GPT-4, Gemini, Claude e Llama2.
Pesquisadores driblam segurança de chatbots de IA usando arte ASCII
Leia também:
Este post foi modificado pela última vez em 13 de março de 2024 18:16
Mark Zuckerberg, CEO da Meta, anunciou que a empresa vai começar a liberar no Instagram…
Watson é uma plataforma de IA desenvolvida pela IBM, conhecida por sua capacidade de treinar,…
O Centro de Jornalismo Investigativo (CJI), organização sem fins lucrativos responsável pelo Mother Jones e…
A parceria da Microsoft com a OpenAI e o acordo de inteligência artificial (IA) do…
Os ministros do comércio e da indústria dos EUA, Japão e Coreia do Sul prometeram…
A tentativa da Nokia de comprar a fabricante americana de equipamentos de redes ópticas Infinera…