تصویری کریڈٹ: Curto نیوز/BingAI

OpenAI مطالعہ شروع کرتا ہے جو حیاتیاتی خطرات پیدا کرنے میں AI کے کردار کو ظاہر کرتا ہے۔

A OpenAI، طاقتور GPT-4 زبان کے ماڈل کے پیچھے تحقیقی تنظیم نے ایک نیا مطالعہ جاری کیا ہے جو حیاتیاتی خطرات کی تخلیق میں مدد کے لئے مصنوعی ذہانت (AI) کے استعمال کے امکان کی جانچ کرتا ہے۔

O مطالعہ، جس میں حیاتیات کے ماہرین اور طلباء شامل تھے، نے پایا کہ GPT-4 انٹرنیٹ پر موجود بنیادی وسائل کے مقابلے میں بائیو تھریٹس بنانے کی درستگی میں "زیادہ سے زیادہ معمولی اضافہ" فراہم کرتا ہے۔

ایڈورٹائزنگ

تجزیہ تیاری کے فریم ورک کا حصہ ہے۔ OpenAI، جس کا مقصد اعلی درجے کی حفاظتی صلاحیتوں کے ممکنہ خطرات کا اندازہ لگانا اور ان کو کم کرنا ہے۔ مصنوعی مصنوعی، خاص طور پر وہ جو "سرحدی خطرات" کی نمائندگی کر سکتے ہیں - غیر روایتی خطرات جو آج کے معاشرے کے ذریعہ اچھی طرح سے سمجھے یا متوقع نہیں ہیں۔ 

ان سرحدی خطرات میں سے ایک AI سسٹمز کی صلاحیت ہے، جیسے کہ بڑے لینگویج ماڈلز (LLMs)، برے اداکاروں کو حیاتیاتی حملوں کی نشوونما اور انجام دینے میں مدد کرنے کے لیے، جیسے کہ پیتھوجینز یا ٹاکسن کی ترکیب کرنا۔

مطالعہ کا طریقہ کار اور نتائج

اس خطرے کا اندازہ لگانے کے لیے، محققین نے 100 شرکاء کے ساتھ ایک انسانی تشخیص کیا، جس میں 50 حیاتیات کے ماہرین پی ایچ ڈی اور تجربہ گاہوں میں پیشہ ورانہ تجربہ رکھنے والے اور کم از کم ایک یونیورسٹی کے بیالوجی کورس کے ساتھ 50 طالب علم کی سطح کے شرکاء شامل تھے۔ 

ایڈورٹائزنگ

شرکاء کے ہر گروپ کو تصادفی طور پر یا تو ایک کنٹرول گروپ کو تفویض کیا گیا تھا، جس کے پاس صرف انٹرنیٹ تک رسائی تھی، یا ایک علاج گروپ، جس کو انٹرنیٹ کے علاوہ GPT-4 تک رسائی حاصل تھی۔ اس کے بعد ہر شریک کو حیاتیاتی خطرات پیدا کرنے کے لیے اختتام سے آخر تک کے عمل کے پہلوؤں کا احاطہ کرنے والے کاموں کا ایک سیٹ مکمل کرنے کے لیے کہا گیا، جیسا کہ آئیڈییشن، حصول، اسکیل اپ، فارمولیشن اور ریلیز۔

محققین نے پانچ میٹرکس پر شرکاء کی کارکردگی کی پیمائش کی: درستگی، مکمل، جدت پسندی، وقت گزارا، اور خود درجہ بندی کی دشواری۔ انہوں نے پایا کہ GPT-4 نے طلباء کی سطح کے گروپ کے لیے درستگی میں معمولی اضافے کے علاوہ کسی بھی میٹرکس پر شرکاء کی کارکردگی کو نمایاں طور پر بہتر نہیں کیا۔ محققین نے یہ بھی نوٹ کیا کہ GPT-4 اکثر غلط یا گمراہ کن ردعمل پیدا کرتا ہے، جو حیاتیاتی خطرات پیدا کرنے کے عمل کو روک سکتا ہے۔

محققین نے نتیجہ اخذ کیا کہ LLMs کی موجودہ نسل، جیسے GPT-4، موجودہ انٹرنیٹ کی صلاحیتوں کے مقابلے میں حیاتیاتی خطرات کی تخلیق کو فعال کرنے کا کوئی خاص خطرہ نہیں لاتی۔

ایڈورٹائزنگ

تاہم، انہوں نے خبردار کیا کہ یہ نتیجہ حتمی نہیں ہے اور مستقبل کے ایل ایل ایم زیادہ قابل اور خطرناک ہو سکتے ہیں۔ انہوں نے اس موضوع پر مسلسل تحقیق اور کمیونٹی کے بارے میں غور و خوض کی ضرورت پر بھی روشنی ڈالی، ساتھ ہی ساتھ AI کی طرف سے لاحق سیکورٹی خطرات کے لیے بہتر تشخیصی طریقوں اور اخلاقی رہنما خطوط کی ترقی پر بھی روشنی ڈالی۔

یہ بھی پڑھیں:

اوپر کرو