Créditos da imagem: Curto News/BingAI

Coreia do Norte e Irã usam IA para hackear, diz Microsoft

Os adversários dos EUA – principalmente o Irã e a Coreia do Norte e, em menor medida, a Rússia e a China – estão começando a usar inteligência artificial (IA) generativa para montar ou organizar operações cibernéticas ofensivas, disse a Microsoft na quarta-feira (14).

A Microsoft disse que detectou e interrompeu, em colaboração com o parceiro de negócios OpenAI, muitas ameaças que usaram ou tentaram explorar a tecnologia de inteligência artificial que desenvolveram.

PUBLICIDADE

Em uma postagem de blog , a empresa disse que as técnicas estavam em “estágio inicial” e não eram “particularmente novas ou únicas”, mas que era importante expô-las publicamente como rivais dos EUA, aproveitando modelos de linguagem ampla para expandir sua capacidade de violar redes e exercer influência.

As empresas de segurança cibernética há muito tempo utilizam a aprendizagem automática na defesa, principalmente para detectar comportamentos anómalos nas redes. Mas criminosos e hackers ofensivos também o utilizam, e a introdução de modelos de linguagem grande liderados pelo ChatGPT da OpenAI intensificou esse jogo de gato e rato.

A Microsoft forneceu alguns exemplos. Em cada caso, disse que todas as contas e ativos de IA generativa dos grupos nomeados foram desativados.

PUBLICIDADE

Ameaças de países estrangeiros

O grupo de ciberespionagem norte-coreano conhecido como Kimsuky usou os modelos para pesquisar grupos de reflexão estrangeiros que estudam o país e para gerar conteúdo que provavelmente será usado em campanhas de hackers de spear-phishing (ataque personalizado).

A Guarda Revolucionária do Irã tem utilizado modelos em linguagem ampla para ajudar na engenharia social, na resolução de problemas de erros de software e até no estudo de como os intrusos podem escapar à detecção numa rede comprometida. 

A unidade de inteligência militar russa GRU – conhecida como Fancy Bear – utilizou os modelos para pesquisar tecnologias de satélite e radar que podem estar relacionadas com a guerra na Ucrânia.

PUBLICIDADE

O grupo chinês de ciberespionagem conhecido como Aquatic Panda – que tem como alvo uma ampla gama de indústrias, ensino superior e governos, da França à Malásia – interagiu com os modelos “de formas que sugerem uma exploração limitada de como os LLMs podem aumentar as suas operações técnicas”.

O grupo chinês Maverick Panda, que tem como alvo os empreiteiros de defesa dos EUA entre outros setores há mais de uma década, teve interações com modelos de grande linguagem, sugerindo que estavam avaliando a sua eficácia como fonte de informação “sobre temas potencialmente sensíveis, indivíduos de alto perfil, regiões geopolítica, influência dos EUA e assuntos internos”.

Em um blog separado publicado na quarta-feira, a OpenAI disse que seu atual modelo de chatbot GPT-4 oferece “apenas recursos limitados e incrementais para tarefas maliciosas de segurança cibernética, além do que já é possível com ferramentas disponíveis publicamente e sem IA”.

PUBLICIDADE

Leia também:

Rolar para cima