Автори зображення: Curto Новини/Bing AI

Google анонсує новий продукт, орієнтований на кібербезпеку

У публікації у вашому блозіабо Google показала, що її новий продукт кібербезпеки – the Google Загроза інтелекту – об’єднає роботу підрозділу кібербезпеки Mandiant і розвідки загроз VirusTotal з штучний інтелект (AI) Gemini. Компанія планує націлити AI на кібербезпека і зробити звіти про загрози легшими для розуміння.

ПУБЛІЦИДА

У новому продукті використовується велика мовна модель Gemini 1.5 Pro, який Google претензії щодо скорочення часу, необхідного для проектуванняaria зворотні атаки шкідливих програм. Компанія стверджує, що Gemini 1.5 Pro, випущений у лютому, зайняв лише 34 секунди для аналізу коду Вірус WannaCry — атака програм-вимагачів 2017 року, яка паралізувала лікарні, підприємства та інші організації в усьому світі, — і визначити вимикач. Це вражає, але не дивно, враховуючи здатність LLM читати та писати код.

Але можливе інше використання Gemini у просторі загроз є підсумовування звітів про загрози природною мовою в межах Загроза інтелекту щоб компанії могли оцінити, як потенційні атаки можуть на них вплинути, або, іншими словами, щоб компанії не реагували надмірно або недооцінювали загрози.

O Google каже, що Загроза інтелекту він також має широку мережу інформації для моніторингу потенційних загроз до того, як станеться атака. Це дозволяє користувачам бачити ширшу картину ландшафту кібербезпеки та визначати, на чому зосередитися. Mandiant надає експертів-людей, які відстежують потенційно зловмисні групи, і консультантів, які працюють з компаніями для блокування атак. Спільнота VirusTotal також регулярно публікує індикатори загроз.

ПУБЛІЦИДА

O Google у 2020 році придбав Mandiant, компанію з кібербезпеки, яка виявила кібератаку SolarWinds проти федерального уряду США у 2022 році.

Компанія також планує використовувати експертів Mandiant для оцінки вразливостей безпеки навколо проектів AI. Крізь GoogleЗахищена структура штучного інтелекту Mandiant перевірить захист моделей штучного інтелекту та допоможе в об’єднанні зусиль. Хоча моделі штучного інтелекту можуть допомогти узагальнити загрози та розробити атаки зловмисного програмного забезпечення, самі моделі іноді можуть стати мішенню для зловмисників. Ці загрози іноді включають «отруєння даних», яке додає поганий код до даних, які збирають моделі ШІ, щоб моделі не могли відповідати на певні запити.

O Google, звичайно, не єдина компанія, яка поєднує ШІ з кібербезпекою. А Microsoft запустив Copilot для безпеки, на базі GPT-4 та моделі AI, що стосується кібербезпеки компанії Microsoft, і дозволяє фахівцям з кібербезпеки ставити запитання про загрози.

ПУБЛІЦИДА

Читайте також:

Залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові для заповнення поля позначені *

прокрутки вгору