Cibercriminosos estão usando a IA para criar ataques mais sofisticados

Em tempos de incerteza com o uso de inteligência artificial é importante estar atento a medidas de segurança para proteger os dados. De acordo com a Check Point, uma empresa fornecedora de soluções de cibersegurança global, problemas envolvendo IA vão desde deepfakes até clonagem de ferramentas. Veja.

Publicado por
Uesley Durães
  • Habilidade e experiência não são necessárias: A IA torna mais fácil para os cibercriminosos realizar ataques, mesmo que eles não tenham habilidades ou experiência anteriores. Por exemplo, os cibercriminosos podem usar ferramentas de IA para criar e-mails de phishing que são mais difíceis de detectar. Eles também podem usar ferramentas de IA para automatizar ataques, o que torna mais fácil para eles atingir um grande número de vítimas.
  • Melhoria dos ataques cibernéticos: A IA permite que os cibercriminosos criem ataques mais sofisticados e difíceis de detectar. Por exemplo, os cibercriminosos podem usar ferramentas de IA para criar malware que é especificamente direcionado a uma determinada vítima ou organização. Eles também podem usar ferramentas de IA para criar deepfakes, que são vídeos ou áudios que foram manipulados para fazer com que pessoas reais digam ou façam coisas que nunca disseram ou fizeram.
  • Introdução de ciberataques automatizados: A IA permite que os cibercriminosos usem bots e sistemas automatizados para realizar ataques online. Isso os torna mais eficientes e lhes dá a capacidade de atingir um grande número de vítimas. Por exemplo, os cibercriminosos podem usar bots para enviar e-mails de phishing ou para invadir sites.
  • Ferramentas de inteligência artificial clonadas: Os cibercriminosos estão clonando ferramentas de IA e usando-as para realizar ataques. Isso os torna mais difíceis de detectar e impedir. Por exemplo, os cibercriminosos podem clonar ferramentas de IA que são usadas para detectar malware ou para proteger sites contra ataques DDoS.

De acordo com Fernando de Falchi, gerente de Engenharia de Segurança da empresa no Brasil, “devemos manter um ambiente atualizado e preparado para lidar com todas as ameaças atuais e futuras(…) hoje temos várias ferramentas que exemplificam as possibilidades da inteligência artificial no campo da cibersegurança. No entanto, para mitigar os riscos associados à IA avançada, é importante que pesquisadores e formuladores de políticas trabalhem juntos para garantir que essas tecnologias sejam desenvolvidas de maneira segura e benéfica”.

Veja também:

Este post foi modificado pela última vez em %s = human-readable time difference 08:21

Uesley Durães

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024