Cibercriminosos estão usando a IA para criar ataques mais sofisticados

Em tempos de incerteza com o uso de inteligência artificial é importante estar atento a medidas de segurança para proteger os dados. De acordo com a Check Point, uma empresa fornecedora de soluções de cibersegurança global, problemas envolvendo IA vão desde deepfakes até clonagem de ferramentas. Veja.

Publicado por
Uesley Durães
  • Habilidade e experiência não são necessárias: A IA torna mais fácil para os cibercriminosos realizar ataques, mesmo que eles não tenham habilidades ou experiência anteriores. Por exemplo, os cibercriminosos podem usar ferramentas de IA para criar e-mails de phishing que são mais difíceis de detectar. Eles também podem usar ferramentas de IA para automatizar ataques, o que torna mais fácil para eles atingir um grande número de vítimas.
  • Melhoria dos ataques cibernéticos: A IA permite que os cibercriminosos criem ataques mais sofisticados e difíceis de detectar. Por exemplo, os cibercriminosos podem usar ferramentas de IA para criar malware que é especificamente direcionado a uma determinada vítima ou organização. Eles também podem usar ferramentas de IA para criar deepfakes, que são vídeos ou áudios que foram manipulados para fazer com que pessoas reais digam ou façam coisas que nunca disseram ou fizeram.
  • Introdução de ciberataques automatizados: A IA permite que os cibercriminosos usem bots e sistemas automatizados para realizar ataques online. Isso os torna mais eficientes e lhes dá a capacidade de atingir um grande número de vítimas. Por exemplo, os cibercriminosos podem usar bots para enviar e-mails de phishing ou para invadir sites.
  • Ferramentas de inteligência artificial clonadas: Os cibercriminosos estão clonando ferramentas de IA e usando-as para realizar ataques. Isso os torna mais difíceis de detectar e impedir. Por exemplo, os cibercriminosos podem clonar ferramentas de IA que são usadas para detectar malware ou para proteger sites contra ataques DDoS.

De acordo com Fernando de Falchi, gerente de Engenharia de Segurança da empresa no Brasil, “devemos manter um ambiente atualizado e preparado para lidar com todas as ameaças atuais e futuras(…) hoje temos várias ferramentas que exemplificam as possibilidades da inteligência artificial no campo da cibersegurança. No entanto, para mitigar os riscos associados à IA avançada, é importante que pesquisadores e formuladores de políticas trabalhem juntos para garantir que essas tecnologias sejam desenvolvidas de maneira segura e benéfica”.

Veja também:

Este post foi modificado pela última vez em 18 de julho de 2023 08:21

Uesley Durães

Posts recentes

Inteligência artificial pode acelerar perda de empregos e emissão de carbono, revela relatório

Um relatório internacional de especialistas em inteligência artificial (IA) alerta para possíveis aumentos no curto…

19 de maio de 2024

União Europeia ameaça multar a Microsoft por questões de inteligência artificial

A Comissão Europeia deu prazo até 27 de maio para a Microsoft entregar informações sobre…

19 de maio de 2024

ChatGPT ganha integração com Google Drive e OneDrive para análise de dados

Uma boa notícia para usuários pagantes do ChatGPT: a OpenAI anunciou que em breve você…

19 de maio de 2024

Segurança em IA em risco? Pesquisador da OpenAI pede demissão e critica priorização de “produtos bonitos”

Um ex-funcionário sênior da OpenAI, empresa criadora do ChatGPT, acusou a companhia de priorizar "produtos…

18 de maio de 2024

Microsoft oferece processadores AMD como alternativa para IA na nuvem

A Microsoft anunciou que vai oferecer aos seus clientes de computação em nuvem uma plataforma…

18 de maio de 2024

Sony Music aperta o cerco contra uso indevido de músicas em inteligência artificial

A Sony Music, segunda maior gravadora do mundo, está enviando cartas de advertência para mais…

18 de maio de 2024