Os adversários dos EUA – principalmente o Irã e a Coreia do Norte e, em menor medida, a Rússia e a China – estão começando a usar inteligência artificial (IA) generativa para montar ou organizar operações cibernéticas ofensivas, disse a Microsoft na quarta-feira (14).
A Microsoft disse que detectou e interrompeu, em colaboração com o parceiro de negócios OpenAI, muitas ameaças que usaram ou tentaram explorar a tecnologia de inteligência artificial que desenvolveram.
Em uma postagem de blog , a empresa disse que as técnicas estavam em “estágio inicial” e não eram “particularmente novas ou únicas”, mas que era importante expô-las publicamente como rivais dos EUA, aproveitando modelos de linguagem ampla para expandir sua capacidade de violar redes e exercer influência.
As empresas de segurança cibernética há muito tempo utilizam a aprendizagem automática na defesa, principalmente para detectar comportamentos anómalos nas redes. Mas criminosos e hackers ofensivos também o utilizam, e a introdução de modelos de linguagem grande liderados pelo ChatGPT da OpenAI intensificou esse jogo de gato e rato.
A Microsoft forneceu alguns exemplos. Em cada caso, disse que todas as contas e ativos de IA generativa dos grupos nomeados foram desativados.
O grupo de ciberespionagem norte-coreano conhecido como Kimsuky usou os modelos para pesquisar grupos de reflexão estrangeiros que estudam o país e para gerar conteúdo que provavelmente será usado em campanhas de hackers de spear-phishing (ataque personalizado).
A Guarda Revolucionária do Irã tem utilizado modelos em linguagem ampla para ajudar na engenharia social, na resolução de problemas de erros de software e até no estudo de como os intrusos podem escapar à detecção numa rede comprometida.
A unidade de inteligência militar russa GRU – conhecida como Fancy Bear – utilizou os modelos para pesquisar tecnologias de satélite e radar que podem estar relacionadas com a guerra na Ucrânia.
O grupo chinês de ciberespionagem conhecido como Aquatic Panda – que tem como alvo uma ampla gama de indústrias, ensino superior e governos, da França à Malásia – interagiu com os modelos “de formas que sugerem uma exploração limitada de como os LLMs podem aumentar as suas operações técnicas”.
O grupo chinês Maverick Panda, que tem como alvo os empreiteiros de defesa dos EUA entre outros setores há mais de uma década, teve interações com modelos de grande linguagem, sugerindo que estavam avaliando a sua eficácia como fonte de informação “sobre temas potencialmente sensíveis, indivíduos de alto perfil, regiões geopolítica, influência dos EUA e assuntos internos”.
Em um blog separado publicado na quarta-feira, a OpenAI disse que seu atual modelo de chatbot GPT-4 oferece “apenas recursos limitados e incrementais para tarefas maliciosas de segurança cibernética, além do que já é possível com ferramentas disponíveis publicamente e sem IA”.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:19
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…