آسٹریلیائی AI معیارات کمپنیوں کو آن لائن سیکیورٹی کے بارے میں فکر مند ہیں۔

ٹیک کمپنیوں کا کہنا ہے کہ نئے آسٹریلوی سیکیورٹی معیارات نادانستہ طور پر جنریٹیو اے آئی سسٹمز کے لیے بچوں کے ساتھ بدسلوکی اور دہشت گردی کے حامی مواد کا پتہ لگانا اور اسے روکنا مزید مشکل بنا دیں گے۔

معیارات متعدد ٹیکنالوجیز کا احاطہ کرتے ہیں، بشمول ویب سائٹس، کلاؤڈ اسٹوریج سروسز، ٹیکسٹ میسجنگ اور چیٹ ایپلی کیشنز۔ وہ بھی احاطہ کرتا ہےمصنوعی ذہانت (AI) اعلی اثر پیدا کرنے والے اور اوپن سورس مشین لرننگ ماڈل۔

ایڈورٹائزنگ

WeProtect گلوبل الائنس، 100 سے زیادہ حکومتوں اور 70 کمپنیوں کا ایک غیر منافع بخش کنسورشیم جو آن لائن بچوں کے جنسی استحصال اور بدسلوکی کو نشانہ بناتا ہے، نے مسئلے کی نوعیت پر روشنی ڈالی۔ انہوں نے کہا کہ اوپن سورس AI پہلے سے ہی بچوں کے ساتھ بدسلوکی کے مواد اور ڈیپ فیکس تیار کرنے کے لیے استعمال کیا جا رہا ہے، اور مجوزہ معیارات درست پلیٹ فارمز اور خدمات کو حاصل کرتے ہیں۔

"غلط استعمال کے امکان پر توجہ مرکوز کرتے ہوئے، حد اس حقیقت کی عکاسی کرتی ہے کہ یہاں تک کہ مشین لرننگ اور مصنوعی ذہانت کے ماڈلز کو بھی حساس ڈیٹا یا ڈیٹا سیٹس تک محدود براہ راست نمائش کے ساتھ غیر قانونی مواد بنانے کے لیے غلط استعمال کیا جا سکتا ہے، جیسے 'مصنوعی' بچوں کے جنسی تعلقات۔ بدسلوکی مواد اور جنسی ڈیپ فیکس۔"

لیکن ٹیکنالوجی کمپنیاں، بشمول Microsoft, میٹا e استحکام AIنے کہا کہ ان کی ٹیکنالوجیز حفاظتی تدابیر کے ساتھ تیار کی جا رہی ہیں تاکہ انہیں اس طرح استعمال ہونے سے روکا جا سکے۔

ایڈورٹائزنگ

A Microsoft متنبہ کیا کہ معیارات، جیسا کہ مسودہ تیار کیا گیا ہے، بچوں کے ساتھ بدسلوکی یا دہشت گردی کے حامی مواد کا پتہ لگانے اور اس کی نشاندہی کرنے کے لیے استعمال ہونے والے AI سیکیورٹی ماڈلز کی تاثیر کو محدود کر سکتے ہیں۔

"اس بات کو یقینی بنانے کے لیے کہ AI ماڈلز اور سیکیورٹی سسٹمز (جیسے درجہ بندی کرنے والے) کو اس طرح کے مواد کا پتہ لگانے اور جھنڈا لگانے کی تربیت دی جا سکتی ہے، یہ ضروری ہے کہ AI ایسے مواد کے سامنے آئے اور خطرات کی پیمائش اور ان کو کم کرنے کے لیے تشخیصی عمل قائم کیے جائیں" ، میں نے بتایا کہ Microsoft.

"مکمل طور پر 'صاف' تربیتی ڈیٹا ایسے آلات کی تاثیر کو کم کر سکتا ہے اور اس امکان کو کم کر سکتا ہے کہ وہ درستگی اور نفاست کے ساتھ کام کریں گے۔

ایڈورٹائزنگ

"مواد کی اعتدال کے لیے AI ٹول کے سب سے زیادہ امید افزا عناصر میں سے ایک سیاق و سباق کا جائزہ لینے کی اعلیٰ صلاحیت ہے - اس طرح کے اہم تشخیص کی حمایت کرنے کے لیے ڈیٹا کی تربیت کے بغیر، ہمیں اس طرح کی اختراع کے فوائد سے محروم ہونے کا خطرہ ہے۔"

استحکام AI نے یہ بھی خبردار کیا کہ AI آن لائن اعتدال میں ایک بڑا کردار ادا کرے گا، اور حد سے زیادہ وسیع تعریفیں اس بات کا تعین کرنا مشکل بنا سکتی ہیں کہ مجوزہ معیارات پر پورا اترنے کے لیے کن چیزوں کا پتہ لگانا ضروری ہے۔

فیس بک کی پیرنٹ کمپنی میٹا نے کہا کہ جب کہ اس کا ماڈل شعلہ 2 حفاظتی ٹولز اور استعمال کے ذمہ دار گائیڈز ہوں، ٹول ڈاؤن لوڈ ہونے پر حفاظتی اقدامات کو نافذ کرنا مشکل ہو گا۔

ایڈورٹائزنگ

کمپنی نے کہا، "ہمارے لیے یہ ممکن نہیں ہے کہ Llama 2 کے ڈاؤن لوڈ ہونے کے بعد اسے معطل کر دیا جائے یا اکاؤنٹ ختم کر دیا جائے، یا ڈاؤن لوڈ کیے گئے ٹیمپلیٹس سے مواد کو روکنا، خلل ڈالنا، پتہ لگانا، رپورٹ کرنا یا ہٹانا ممکن نہیں،" کمپنی نے کہا۔

O Google نے سفارش کی کہ AI کو معیارات میں شامل نہ کیا جائے اور اس کے بجائے اسے حکومت کے آن لائن سیفٹی ایکٹ کے موجودہ جائزے اور آن لائن سیفٹی کے لیے بنیادی توقعات کا حصہ سمجھا جائے۔

ٹیکنالوجی کمپنیوں کی طرف سے کئے گئے تبصروں کی بازگشت بھی Apple پچھلے ہفتے اس معیار کو واضح طور پر بیان کرنا چاہیے کہ کلاؤڈ سروسز اور پیغامات کو اسکین کرنے کی تجاویز "جب تکنیکی طور پر ممکن ہو"promeاس میں خفیہ کاری ہوگی، اور تکنیکی فزیبلٹی میں کمپنی کے لیے اس طرح کی ٹیکنالوجی تیار کرنے کی لاگت سے زیادہ شامل ہوگی۔

ایڈورٹائزنگ

ایک بیان میں، ای سیفٹی کمشنر جولی انمان گرانٹ نے کہا کہ معیارات کے تحت صنعت کو انکرپشن کو توڑنے یا کمزور کرنے، متن کی نگرانی کرنے، یا اندھا دھند ذاتی ڈیٹا کی بڑی مقدار کو اسکین کرنے کی ضرورت نہیں ہوگی، اور کمشنر اب اس نکتے کو واضح کرنے کے لیے ممکنہ ترامیم پر غور کر رہا تھا۔

"بنیادی طور پر، eSegurança اس بات پر یقین نہیں رکھتا کہ صنعت کو اس کے پلیٹ فارمز پر آزادانہ طور پر میزبانی اور اشتراک کیے جانے والے غیر قانونی مواد کا سامنا کرنے کی ذمہ داری سے مستثنیٰ ہونا چاہیے۔ eSegurança نوٹ کرتی ہے کہ کچھ بڑی اینڈ ٹو اینڈ انکرپٹڈ میسجنگ سروسز پہلے ہی اس نقصان دہ مواد کا پتہ لگانے کے لیے اقدامات کر رہی ہیں،" اس نے کہا۔

انمان گرانٹ نے کہا کہ معیارات کے حتمی ورژن اس سال کے آخر میں غور کے لیے پارلیمنٹ میں پیش کیے جائیں گے۔

یہ بھی پڑھیں:

اوپر کرو