Pesquisadores de Washington e Chicago desenvolveram um novo método chamado ArtPrompt para driblar as medidas de segurança de grandes modelos de linguagem (LLMs) como GPT-3.5, GPT-4, Gemini, Claude e Llama2.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 18:16
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…
O Google Gemini agora pode “lembrar” certas coisas sobre você, como seus interesses e preferências…
Um novo estudo do UVA Health System revelou que o ChatGPT-4 alcançou uma precisão diagnóstica…