Meta ostrzega przed złośliwym oprogramowaniem udającym sztuczną inteligencję

Meta, spółka matka Facebooka, Instagrama i WhatsApp, ostrzegła w tę środę (3), że hakerzy wykorzystują zainteresowanie nowymi narzędziami sztucznej inteligencji (AI), takimi jak ChatGPT, wake, aby nakłonić użytkowników Internetu do zainstalowania złośliwego kodu na swoich urządzeniach.

Wysłany przez
Agencja Prasa Francuska

W kwietniu analitycy bezpieczeństwa giganta mediów społecznościowych odkryli złośliwe oprogramowanie udające ChatGPT lub podobnych narzędzi sztucznej inteligencji, powiedział reporterom dyrektor ds. bezpieczeństwa informacji w Meta, Guy Rosen.

Przypomniał, że złośliwi aktorzy (m.in. hakerzy, spamerzy) zawsze wypatrują najnowszych trendów, które „poruszają wyobraźnię” opinii publicznej, takich jak ChatGPT. Ten interfejs OpenAI, która umożliwia płynny dialog z ludźmi w celu generowania kodu i tekstów, takich jak wiadomości e-mail i prace dyplomowe, wzbudziła ogromny entuzjazm.

Rosen powiedział, że Meta wykryła fałszywe rozszerzenia przeglądarki internetowej, które rzekomo zawierają generatywne narzędzia sztucznej inteligencji, ale w rzeczywistości zawierają złośliwe oprogramowanie zaprojektowane do infekowania urządzeń,

Często zdarza się, że nieuczciwi aktorzy przyciągają uwagę użytkowników Internetu za pomocą przyciągających wzrok wydarzeń, nakłaniając ludzi do klikania łączy zawierających miny-pułapki lub pobierania programów kradnących dane.

„Widzieliśmy to w innych popularnych tematach, takich jak oszustwa spowodowane ogromnym zainteresowaniem walutami cyfrowymi” – powiedział Rosen. „Z perspektywy złośliwego aktora, ChatGPT to nowa kryptowaluta” – zauważył.

Tysiące zablokowanych stron internetowych

Meta wykryła i zablokowała ponad tysiąc witryn internetowych, które promują się jako narzędzia podobne do ChatGPT, ale w rzeczywistości są to pułapki stworzone przez hakerów – twierdzi zespół ds. bezpieczeństwa firmy technologicznej.

Gigant technologiczny nie widział jeszcze wykorzystania generatywnej sztucznej inteligencji przez hakerów jako czegoś więcej niż przynęty, ale przygotowuje się do wykorzystania jej jako broni, co uważa za nieuniknione, powiedział Rosen.

„Generatywna sztuczna inteligencja jest bardzo obiecująca i źli aktorzy o tym wiedzą, dlatego wszyscy powinniśmy zachować szczególną czujność” – powiedział.

Jednocześnie zespoły Meta szukają sposobów wykorzystania generatywnej sztucznej inteligencji do obrony przed hakerami i ich zwodniczymi kampaniami internetowymi.

„Mamy zespoły, które już zastanawiają się, w jaki sposób można nadużyć (generatywnej sztucznej inteligencji) i jakie zabezpieczenia powinniśmy wdrożyć, aby temu przeciwdziałać” – powiedział podczas tej samej odprawy Nathaniel Gleicher, szef polityki bezpieczeństwa Meta.

„Przygotowujemy się do tego” – zapewnił Gleicher.

Ten post był ostatnio modyfikowany 3 maja 2023 o 15:44

Agencja Prasa Francuska

Ostatnie wiadomości

Wzmocnij swoje rozmowy dzięki ChatGPT: Skróty wykorzystujące pamięć

Czy wiesz, że nowa funkcja Memory ChatGPT można zaprogramować za pomocą skrótów do…

11 maja 2024

Prezes Zarządu OpenAI odmawia wcześniejszego uruchomienia wyszukiwania Google I / O

CEO firmy OpenAI, Sam Altman, zdementował pogłoski opublikowane przez Reuters na temat startu…

11 maja 2024

HeyGen: twórz wysokiej jakości filmy wideo oparte na sztucznej inteligencji w ciągu kilku minut

HeyGen to platforma do generowania wideo wykorzystująca sztuczną inteligencję (AI), która umożliwia tworzenie…

11 maja 2024

Naukowcy ostrzegają przed rosnącą zdolnością sztucznej inteligencji do kłamstwa

Analiza przeprowadzona przez naukowców z Massachusetts Institute of Technology (MIT) identyfikuje szerokie przypadki…

11 maja 2024

LearningStudio.ai: Twórz kompletne kursy za pomocą sztucznej inteligencji

LearningStudio.ai to innowacyjna platforma edukacyjna online, która wykorzystuje sztuczną inteligencję (AI) do…

10 maja 2024

Sztuczna inteligencja: broń w rękach cyberprzestępczości

Szacuje się, że w skali globalnej koszty cyberataków i innych cyberprzestępstw w 2025 r. przekroczą…

10 maja 2024