Google डीपमाइंड ने बुधवार को एक प्रकाशित किया संपूर्ण कागज एजीआई के लिए अपने सुरक्षा दृष्टिकोण पर, मोटे तौर पर एआई के रूप में परिभाषित किया गया है जो किसी भी कार्य को एक मानव कर सकता है।

एजीआई एआई क्षेत्र में एक विवादास्पद विषय है निकैयर्स यह सुझाव देते हुए कि यह एक पाइप के सपने से थोड़ा अधिक है। अन्य, सहित एन्थ्रोपिक जैसे प्रमुख एआई लैब्सचेतावनी दें कि यह कोने के आसपास है, और यदि उचित सुरक्षा उपायों को लागू करने के लिए कदम नहीं उठाए गए तो भयावह नुकसान हो सकता है।

दीपमाइंड का 145-पृष्ठ का दस्तावेज़, जो कि डीपमाइंड के सह-संस्थापक शेन लेग द्वारा सह-लेखक था, ने भविष्यवाणी की कि एजीआई 2030 तक पहुंच सकता है, और इसके परिणामस्वरूप लेखक “गंभीर नुकसान” कहते हैं। पेपर इस बात को परिभाषित नहीं करता है, लेकिन “अस्तित्वगत जोखिमों” का अलार्मवादी उदाहरण देता है जो “स्थायी रूप से मानवता को नष्ट कर देता है।”

“[We anticipate] वर्तमान दशक की समाप्ति से पहले एक असाधारण एजीआई का विकास, “लेखकों ने लिखा।” एक असाधारण एजीआई एक ऐसी प्रणाली है जिसमें गैर-भौतिक कार्यों की एक विस्तृत श्रृंखला पर कम से कम 99 वें प्रतिशत कुशल वयस्कों से मेल खाने वाली क्षमता है, जिसमें नए कौशल सीखने जैसे मेटाकोग्निटिव कार्यों भी शामिल हैं। “

बल्ले से, पेपर ने एथ्रोपिक और ओपनई के साथ एजीआई जोखिम शमन के डीपमाइंड के उपचार के विपरीत है। एंथ्रोपिक, यह कहता है, “मजबूत प्रशिक्षण, निगरानी और सुरक्षा” पर कम जोर देता है, जबकि Openai एआई सुरक्षा अनुसंधान के एक रूप को “स्वचालित” करने पर अत्यधिक तेजी से है, जिसे संरेखण अनुसंधान के रूप में जाना जाता है।

पेपर भी अधीक्षक एआई – एआई की व्यवहार्यता पर संदेह करता है जो किसी भी मानव की तुलना में बेहतर नौकरियां कर सकता है। (Openai हाल ही में दावा किया यह एजीआई से लेकर अधीक्षक के लिए अपना उद्देश्य बदल रहा है।) अनुपस्थित “महत्वपूर्ण वास्तुशिल्प नवाचार”, दीपमाइंड लेखकों को यह आश्वस्त नहीं है कि अधीक्षक सिस्टम जल्द ही उभरेंगे – यदि कभी।

पेपर को यह प्रशंसनीय लगता है, हालांकि, कि वर्तमान प्रतिमान “पुनरावर्ती एआई सुधार” को सक्षम करेंगे: एक सकारात्मक प्रतिक्रिया लूप जहां एआई अधिक परिष्कृत एआई सिस्टम बनाने के लिए अपने एआई अनुसंधान का संचालन करता है। और यह अविश्वसनीय रूप से खतरनाक हो सकता है, लेखकों पर जोर दे सकता है।

उच्च स्तर पर, कागज का प्रस्ताव करता है और तकनीक के विकास के लिए बुरे अभिनेताओं की काल्पनिक एजीआई तक पहुंच को अवरुद्ध करने के लिए वकालत करता है, एआई सिस्टम के कार्यों की समझ में सुधार करता है, और एआई में कार्य कर सकता है, “सख्त” वातावरण। यह स्वीकार करता है कि कई तकनीकें नवजात हैं और उनके पास “खुली अनुसंधान समस्याएं” हैं, लेकिन क्षितिज पर संभवतः सुरक्षा चुनौतियों की अनदेखी करने के खिलाफ चेतावनी देते हैं।

“एजीआई की परिवर्तनकारी प्रकृति में दोनों अविश्वसनीय लाभों के साथ -साथ गंभीर नुकसान के लिए क्षमता है,” लेखक लिखते हैं। “परिणामस्वरूप, एजीआई को जिम्मेदारी से बनाने के लिए, फ्रंटियर एआई डेवलपर्स के लिए गंभीर रूप से गंभीर नुकसान को कम करने की योजना बनाना महत्वपूर्ण है।”

हालांकि कुछ विशेषज्ञ कागज के परिसर से असहमत हैं।

गैर-लाभकारी एआई नाउ इंस्टीट्यूट के मुख्य एआई वैज्ञानिक हेइडी खलाफ ने टेकक्रंच को बताया कि उन्हें लगता है कि एजीआई की अवधारणा को “वैज्ञानिक रूप से सख्ती से मूल्यांकन” करने के लिए बहुत बीमार किया गया है। एक अन्य एआई शोधकर्ता, अल्बर्टा विश्वविद्यालय में एक सहायक प्रोफेसर मैथ्यू गुज़दियल ने कहा कि उन्हें नहीं लगता कि पुनरावर्ती एआई सुधार वर्तमान में यथार्थवादी है।

“[Recursive improvement] इंटेलिजेंस विलक्षणता के तर्कों का आधार है, “गुज़डियल ने टेकक्रंच को बताया,” लेकिन हमने इसके लिए कभी कोई सबूत नहीं देखा है। “

ऑक्सफोर्ड में तकनीक और विनियमन का अध्ययन करने वाले एक शोधकर्ता सैंड्रा वाचर का तर्क है कि एक अधिक यथार्थवादी चिंता “गलत आउटपुट” के साथ खुद को मजबूत कर रही है।

उन्होंने कहा, “इंटरनेट पर जेनेरिक एआई आउटपुट और प्रामाणिक डेटा के क्रमिक प्रतिस्थापन के प्रसार के साथ, मॉडल अब अपने स्वयं के आउटपुट से सीख रहे हैं जो कि मिस्टुथ, या मतिभ्रम से भरा हुआ है,” उन्होंने TechCrunch को बताया। “इस बिंदु पर, चैटबॉट्स का उपयोग मुख्य रूप से खोज और सत्य-खोज उद्देश्यों के लिए किया जाता है। इसका मतलब है कि हम लगातार मिस्टुथ्स खिलाए जाने और उन पर विश्वास करने का खतरा है क्योंकि वे बहुत ठोस तरीके से प्रस्तुत किए जाते हैं।”

जैसा कि यह हो सकता है, डीपमाइंड का पेपर इस बात पर बहस करने की संभावना नहीं है कि यथार्थवादी एजीआई कितना यथार्थवादी है – और एआई सुरक्षा के क्षेत्रों में सबसे तत्काल ध्यान देने की आवश्यकता है।



Source link

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें