اعتبار تصویر: Curto اخبار/BingAI

کره شمالی و ایران از هوش مصنوعی برای هک استفاده می کنند Microsoft

دشمنان ایالات متحده - در درجه اول ایران و کره شمالی و تا حدی روسیه و چین - شروع به استفاده از هوش مصنوعی مولد (AI) برای نصب یا سازماندهی عملیات سایبری تهاجمی کرده‌اند. Microsoft روز چهارشنبه (14).

A Microsoft گفت که با همکاری شریک تجاری شناسایی و متوقف شد OpenAI، بسیاری از تهدیدات که از فناوری امنیتی استفاده کرده یا تلاش کرده اند از آن بهره برداری کنند inteligência مصنوعی که توسعه دادند.

تبلیغات

در یک پست وبلاگ ، این شرکت گفت که این تکنیک ها در "مرحله اولیه" هستند و "به ویژه جدید یا منحصر به فرد" نیستند، اما مهم است که آنها را به عنوان رقبای ایالات متحده در معرض عموم قرار دهیم و از مدل های زبانی گسترده برای گسترش توانایی آنها برای نقض استفاده کنیم. شبکه ها و اعمال نفوذ

شرکت‌های امنیت سایبری مدت‌هاست که از یادگیری ماشینی در دفاع به‌ویژه برای شناسایی رفتارهای غیرعادی در شبکه‌ها استفاده می‌کنند. اما مجرمان و هکرهای مهاجم نیز از آن استفاده می کنند و معرفی مدل های زبان بزرگ به رهبری ChatGPT da OpenAI این بازی موش و گربه شدت گرفت.

A Microsoft چند نمونه ارائه کرد. در هر مورد، گفته شد که تمام حساب‌های هوش مصنوعی و دارایی‌های گروه‌های نام‌برده غیرفعال شده است.

تبلیغات

تهدید کشورهای خارجی

گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدل‌ها برای تحقیق در اندیشکده‌های خارجی در حال مطالعه این کشور و تولید محتوایی که احتمالاً در کمپین‌های هک فیشینگ نیزه استفاده می‌شود، استفاده کرد.

سپاه پاسداران ایران از الگوهای زبانی گسترده برای کمک به مهندسی استفاده کرده است.aria اجتماعی، عیب‌یابی خطاهای نرم‌افزاری و حتی مطالعه اینکه چگونه مزاحمان می‌توانند از شناسایی در شبکه فرار کنندpromeداشته است. 

واحد اطلاعات نظامی روسیه GRU - معروف به Fancy Bear - از این مدل‌ها برای تحقیق در مورد فناوری‌های ماهواره‌ای و راداری که ممکن است مربوط به جنگ اوکراین باشد، استفاده کرد.

تبلیغات

گروه جاسوسی سایبری چینی معروف به پانداهای آبی - که طیف وسیعی از صنایع، آموزش عالی و دولت‌ها را از فرانسه گرفته تا مالزی را هدف قرار می‌دهد، با مدل‌ها به شیوه‌هایی تعامل کرده است که نشان می‌دهد کاوش محدودی در مورد اینکه چگونه LLMها می‌توانند عملیات فنی خود را افزایش دهند.

گروه چینی Maverick Panda که بیش از یک دهه است پیمانکاران دفاعی ایالات متحده را در میان سایر بخش‌ها هدف قرار داده است، با مدل‌های زبانی بزرگ تعامل داشت که نشان می‌دهد آنها در حال ارزیابی اثربخشی آن به‌عنوان منبعی از اطلاعات «در مورد موضوعات بالقوه حساس، افراد با مشخصات بالا هستند. ، مناطق ژئوپلیتیکی، نفوذ ایالات متحده و امور داخلی."

در یک وبلاگ جداگانه منتشر شده در روز چهارشنبه، OpenAI گفت که مدل فعلی چت ربات GPT-4 «تنها قابلیت‌های محدود و افزایشی برای وظایف مخرب امنیت سایبری فراتر از آنچه در حال حاضر با ابزارهای غیر هوش مصنوعی در دسترس عموم ممکن است» ارائه می‌کند.

تبلیغات

همچنین بخوانید:

بکش بالا