यह बयान पिछले गुरुवार (13) को दिया गया था।
पिछले महीने, हजारों अत्याधुनिक प्रौद्योगिकी विशेषज्ञ, जिनमें शामिल थे Elon Musk और स्टीव वोज्नियाक ने एक खुले पत्र पर हस्ताक्षर किए, जिसमें जीपीटी-4 से अधिक उन्नत एआई सिस्टम के प्रशिक्षण में छह महीने की रोक लगाने का आह्वान किया गया।
प्रचार
पत्र में तेजी से शक्तिशाली एआई विकसित करने की होड़ और इससे समाज के लिए उत्पन्न खतरों के बारे में बढ़ती चिंताओं पर प्रकाश डाला गया है। जबकि GPT-4 जैसे समकालीन AI सिस्टम पहले से ही सामान्य कार्यों में मनुष्यों के साथ प्रतिस्पर्धा कर सकते हैं, पत्र संभावित सूचना पूर्वाग्रह, नौकरी स्वचालन और मानव सभ्यता पर नियंत्रण खोने के जोखिम की चेतावनी देता है।
ऑल्टमैन खुले पत्र के कुछ पहलुओं से सहमत हुए, विशेष रूप से एआई विकास में सुरक्षा क्षमताओं को बढ़ाने की आवश्यकता के संबंध में। उन्होंने कहा कि OpenAI GPT-4 को प्रशिक्षित करते समय बाहरी ऑडिट और सुरक्षा जांच सहित व्यापक सुरक्षा उपाय किए गए।
ऑल्टमैन ने कहा, "हम जीपीटी-4 के अलावा अन्य चीजें भी कर रहे हैं, मुझे लगता है कि इसमें सभी प्रकार के सुरक्षा मुद्दे हैं जिनका समाधान करना महत्वपूर्ण है और उन्हें पत्र से पूरी तरह से बाहर रखा गया है।"
हालाँकि, वह एआई विकास पर प्रस्तावित मौद्रिक रोक से असहमत थे और पत्र में तकनीकी विशिष्टता की कमी पर ध्यान दिया। ऑल्टमैन ने इस दावे का भी खंडन किया कि OpenAI सटीक एआई सुरक्षा मूल्यांकन और निगरानी के महत्व पर जोर देते हुए जीपीटी-5 का प्रशिक्षण दे रहा था।
प्रचार
उन्होंने आगे बताया कि इसका उद्देश्य क्या है OpenAI एआई के साथ वैश्विक जुड़ाव को प्रोत्साहित करना, व्यक्तियों और संस्थानों को वांछित भविष्य बनाने के लिए मौजूदा सिस्टम को अपग्रेड या अनुकूलित करने के लिए प्रेरित करना है।
हमने हाल ही में यहां रिपोर्ट की है न्यूज़वर्सो कतार ए OpenAI ने टूल को सुरक्षित बनाने के लिए कई पहलों की घोषणा की है। कंपनी के पास हैpromeआपको संपूर्ण परीक्षण करना होगा, बाहरी विशेषज्ञों से फीडबैक लेना होगा और प्रभावी नियम विकसित करने के लिए सरकारों के साथ सहयोग करना होगा।
यह भी देखें: