متا درباره بدافزارهایی که تظاهر به هوش مصنوعی می کنند هشدار می دهد

متا، شرکت مادر فیس بوک، اینستاگرام و واتس اپ، این چهارشنبه (3) هشدار داد که هکرها از علاقه ابزارهای هوش مصنوعی جدید مانند AI استفاده می کنند. ChatGPTawaken، برای فریب کاربران اینترنت برای نصب کدهای مخرب بر روی دستگاه هایشان.

در ماه آوریل، تحلیلگران امنیتی این غول رسانه های اجتماعی متوجه شدند که نرم افزارهای مخربی ظاهر شده است ChatGPT گای روزن، مدیر امنیت اطلاعات متا، به خبرنگاران گفت یا ابزارهای هوش مصنوعی مشابه.

تبلیغات

او یادآور شد که بازیگران مخرب (هکرها، ارسال کنندگان هرزنامه و غیره) همیشه به دنبال آخرین روندهایی هستند که "تخیل" مردم را جذب می کند، مانند ChatGPT. این رابط OpenAIکه به گفتگوی روان با انسان ها برای تولید کد و متون مانند پیام های ایمیل و پایان نامه ها اجازه می دهد، شور و شوق زیادی ایجاد کرده است.

روزن گفت متا افزونه‌های جعلی مرورگر وب را شناسایی کرده است که ادعا می‌کنند حاوی ابزارهای مولد هوش مصنوعی هستند، اما در واقع حاوی نرم‌افزارهای مخربی هستند که برای آلوده کردن دستگاه‌ها طراحی شده‌اند.

برای بازیگران بد معمول است که علاقه کاربران اینترنت را با تحولات چشم نواز جلب می کنند، مردم را فریب می دهند تا روی پیوندهای بمب گذاری شده کلیک کنند یا برنامه های سرقت داده را دانلود کنند.

تبلیغات

روزن گفت: «ما این موضوع را در سایر موضوعات پرطرفدار، مانند تقلب ناشی از علاقه شدید به ارزهای دیجیتال، دیده‌ایم. «از دیدگاه یک بازیگر بدخواه، ChatGPT این ارز دیجیتال جدید است.»

هزار وب سایت مسدود شده

متا بیش از هزار وب سایت را شناسایی و مسدود کرده است که خود را به عنوان ابزاری مشابه معرفی می کنند ChatGPT، اما به گفته تیم امنیتی این شرکت فناوری در واقع تله هایی هستند که توسط هکرها ایجاد شده اند.

روزن گفت: این غول فناوری هنوز شاهد استفاده از هوش مصنوعی مولد به عنوان چیزی فراتر از یک طعمه توسط هکرها نبوده است، اما در حال آماده سازی برای استفاده از آن به عنوان یک سلاح است، چیزی که به نظرش اجتناب ناپذیر است.

تبلیغات

او گفت: "هوش مصنوعی مولد بسیار امیدوارکننده است و بازیگران بد این را می دانند، به همین دلیل است که همه ما باید بسیار مراقب باشیم."

در عین حال، تیم های متا به دنبال راه هایی برای استفاده از هوش مصنوعی مولد برای دفاع در برابر هکرها و کمپین های آنلاین فریبنده آنها هستند.

ناتانیل گلیچر، رئیس سیاست امنیتی متا، در همان جلسه توجیهی گفت: «ما تیم‌هایی داریم که از قبل به این فکر می‌کنند که چگونه (هوش مصنوعی مولد) می‌تواند مورد سوء استفاده قرار گیرد و دفاعی که باید برای مقابله با آن انجام دهیم.

تبلیغات

گلایچر اطمینان داد: "ما برای این کار آماده می شویم."

بکش بالا