A Microsoft گفت که با همکاری شریک تجاری شناسایی و متوقف شد OpenAI، بسیاری از تهدیدات که از فناوری امنیتی استفاده کرده یا تلاش کرده اند از آن بهره برداری کنند inteligência مصنوعی که توسعه دادند.
تبلیغات
در یک پست وبلاگ ، این شرکت گفت که این تکنیک ها در "مرحله اولیه" هستند و "به ویژه جدید یا منحصر به فرد" نیستند، اما مهم است که آنها را به عنوان رقبای ایالات متحده در معرض عموم قرار دهیم و از مدل های زبانی گسترده برای گسترش توانایی آنها برای نقض استفاده کنیم. شبکه ها و اعمال نفوذ
کره شمالی و ایران از هوش مصنوعی برای هک استفاده می کنند Microsoft می گوید: https://t.co/NaNuLFIEUg
- Guardian US (@GuardianUS) فوریه 14، 2024
شرکتهای امنیت سایبری مدتهاست که از یادگیری ماشینی در دفاع بهویژه برای شناسایی رفتارهای غیرعادی در شبکهها استفاده میکنند. اما مجرمان و هکرهای مهاجم نیز از آن استفاده می کنند و معرفی مدل های زبان بزرگ به رهبری ChatGPT da OpenAI این بازی موش و گربه شدت گرفت.
A Microsoft چند نمونه ارائه کرد. در هر مورد، گفته شد که تمام حسابهای هوش مصنوعی و داراییهای گروههای نامبرده غیرفعال شده است.
تبلیغات
تهدید کشورهای خارجی
گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدلها برای تحقیق در اندیشکدههای خارجی در حال مطالعه این کشور و تولید محتوایی که احتمالاً در کمپینهای هک فیشینگ نیزه استفاده میشود، استفاده کرد.
سپاه پاسداران ایران از الگوهای زبانی گسترده برای کمک به مهندسی استفاده کرده است.aria اجتماعی، عیبیابی خطاهای نرمافزاری و حتی مطالعه اینکه چگونه مزاحمان میتوانند از شناسایی در شبکه فرار کنندpromeداشته است.
واحد اطلاعات نظامی روسیه GRU - معروف به Fancy Bear - از این مدلها برای تحقیق در مورد فناوریهای ماهوارهای و راداری که ممکن است مربوط به جنگ اوکراین باشد، استفاده کرد.
تبلیغات
گروه جاسوسی سایبری چینی معروف به پانداهای آبی - که طیف وسیعی از صنایع، آموزش عالی و دولتها را از فرانسه گرفته تا مالزی را هدف قرار میدهد، با مدلها به شیوههایی تعامل کرده است که نشان میدهد کاوش محدودی در مورد اینکه چگونه LLMها میتوانند عملیات فنی خود را افزایش دهند.
گروه چینی Maverick Panda که بیش از یک دهه است پیمانکاران دفاعی ایالات متحده را در میان سایر بخشها هدف قرار داده است، با مدلهای زبانی بزرگ تعامل داشت که نشان میدهد آنها در حال ارزیابی اثربخشی آن بهعنوان منبعی از اطلاعات «در مورد موضوعات بالقوه حساس، افراد با مشخصات بالا هستند. ، مناطق ژئوپلیتیکی، نفوذ ایالات متحده و امور داخلی."
در یک وبلاگ جداگانه منتشر شده در روز چهارشنبه، OpenAI گفت که مدل فعلی چت ربات GPT-4 «تنها قابلیتهای محدود و افزایشی برای وظایف مخرب امنیت سایبری فراتر از آنچه در حال حاضر با ابزارهای غیر هوش مصنوعی در دسترس عموم ممکن است» ارائه میکند.
تبلیغات
همچنین بخوانید: