Em um post em seu blog, o Google revelou que seu novo produto de cibersegurança – o Google Threat Intelligence – reunirá o trabalho de sua unidade de cibersegurança Mandiant e a inteligência de ameaças do VirusTotal com o modelo de inteligência artificial (IA) Gemini. A empresa planeja direcionar a IA para a cibersegurança e tornar os relatórios de ameaças mais fáceis de entender.
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
O novo produto utiliza o modelo de linguagem grande Gemini 1.5 Pro, que o Google afirma reduzir o tempo necessário para engenharia reversa de ataques de malware. A empresa afirma que o Gemini 1.5 Pro, lançado em fevereiro, levou apenas 34 segundos para analisar o código do vírus WannaCry — o ataque de ransomware de 2017 que paralisou hospitais, empresas e outras organizações ao redor do mundo — e identificar um interruptor de desativação. Isso é impressionante, mas não surpreendente, dada a habilidade dos LLMs de ler e escrever código.
Mas outro possível uso do Gemini no espaço de ameaças é resumir os relatórios de ameaças em linguagem natural dentro da Threat Intelligence para que as empresas possam avaliar como os ataques potenciais podem impactá-las — ou, em outras palavras, para que as empresas não reajam excessivamente ou subestimem as ameaças.
O Google diz que a Threat Intelligence também tem uma vasta rede de informações para monitorar ameaças potenciais antes que um ataque aconteça. Ela permite que os usuários vejam um quadro maior do panorama de cibersegurança e priorizem no que focar. A Mandiant fornece especialistas humanos que monitoram grupos potencialmente maliciosos e consultores que trabalham com empresas para bloquear ataques. A comunidade do VirusTotal também posta regularmente indicadores de ameaças.
O Google comprou a Mandiant, a empresa de cibersegurança que descobriu o ataque cibernético SolarWinds de 2020 contra o governo federal dos EUA, em 2022.
A empresa também planeja usar os especialistas da Mandiant para avaliar vulnerabilidades de segurança em torno de projetos de IA. Por meio do Google’s Secure AI Framework, a Mandiant testará as defesas dos modelos de IA e ajudará nos esforços de red teaming. Enquanto os modelos de IA podem ajudar a resumir ameaças e engenheirar reversamente ataques de malware, os próprios modelos às vezes podem se tornar alvo de atores maliciosos. Essas ameaças incluem às vezes “envenenamento de dados”, que adiciona código ruim aos dados que os modelos de IA coletam para que os modelos não possam responder a determinadas solicitações.
O Google, é claro, não é a única empresa que está fundindo IA com cibersegurança. A Microsoft lançou o Copilot for Security, alimentado pelo GPT-4 e pelo modelo de IA específico para cibersegurança da Microsoft, e permite que profissionais de cibersegurança façam perguntas sobre ameaças.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 18:12
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…
A Nvidia acaba de apresentar o Jetson Orin Nano Super Developer Kit, um supercomputador de…
A OpenAI acabou de lançar uma série de atualizações para desenvolvedores no 9º dia do…