चीन ने इस सप्ताह अमेरिका सहित 60 देशों द्वारा सहमति व्यक्त किए गए अंतर्राष्ट्रीय “ब्लूप्रिंट” पर हस्ताक्षर नहीं करने का निर्णय लिया, जिसमें रोजगार के दौरान सुरक्षा संबंधी प्रतिबंध लगाने की बात कही गई थी। सैन्य उपयोग के लिए कृत्रिम बुद्धिमत्ता (एआई).
सोमवार और मंगलवार को दक्षिण कोरिया में आयोजित सैन्य क्षेत्र में उत्तरदायी कृत्रिम बुद्धिमत्ता (आरईएआईएम) शिखर सम्मेलन में 90 से अधिक देशों ने भाग लिया, हालांकि लगभग एक तिहाई प्रतिभागियों ने गैर-बाध्यकारी प्रस्ताव का समर्थन नहीं किया।
हडसन इंस्टीट्यूट के क्वांटम अलायंस इनिशिएटिव के वरिष्ठ फेलो और निदेशक, एआई विशेषज्ञ आर्थर हरमन ने फॉक्स न्यूज डिजिटल को बताया कि एआई विकसित करने की दौड़ में लगभग 30 देशों द्वारा इस महत्वपूर्ण विकास से बाहर रहने का तथ्य चिंता का कारण नहीं है, हालांकि बीजिंग के मामले में यह बहुपक्षीय समझौतों पर हस्ताक्षर करने के उसके सामान्य विरोध के कारण हो सकता है।
‘ब्रेनवॉशिंग की कला’ में महारत हासिल करते हुए चीन ने एआई सेंसरशिप को और तेज़ कर दिया
उन्होंने कहा, “इसका निष्कर्ष यह है कि चीन हमेशा ऐसे किसी भी अंतरराष्ट्रीय समझौते को लेकर सतर्क रहता है, जिसमें वह आर्किटेक्ट नहीं रहा हो या समझौते को आकार देने और लागू करने में शामिल नहीं रहा हो।” “मुझे लगता है कि चीन के लिए यह एक बहुत बड़ी चुनौती है। चीनी इन सभी प्रयासों को देखते हैंइन सभी बहुपक्षीय प्रयासों को चीन की अपनी सैन्य बढ़त को बढ़ाने के लिए एआई का उपयोग करने की क्षमता को बाधित करने और सीमित करने के तरीके के रूप में देखा जा रहा है।”
हरमन ने बताया कि शिखर सम्मेलन, तथा लगभग पांच दर्जन देशों द्वारा सहमत ब्लूप्रिंट, कृत्रिम बुद्धि (AI) के इर्द-गिर्द फैलती प्रौद्योगिकी की सुरक्षा का एक प्रयास है, जिसके तहत यह सुनिश्चित किया जाएगा कि मौजूदा प्रणालियों पर हमेशा “मानव नियंत्रण” बना रहे, विशेष रूप से जब यह सैन्य और रक्षा मामलों से संबंधित हो।
“एल्गोरिदम जो ड्राइव करते हैं रक्षा प्रणालियाँ और हथियार प्रणालियाँ उन्होंने कहा, “यह काफी हद तक इस बात पर निर्भर करता है कि वे कितनी तेजी से आगे बढ़ सकते हैं।” “(वे) सूचना और डेटा इकट्ठा करने के लिए तेजी से आगे बढ़ते हैं, जिसे आप फिर कमांड और कंट्रोल तक तेजी से पहुंचा सकते हैं ताकि वे निर्णय ले सकें।
उन्होंने कहा, “जिस गति से एआई आगे बढ़ता है… वह युद्ध के मैदान में बहुत महत्वपूर्ण है।” “अगर एआई-संचालित प्रणाली द्वारा लिया जाने वाला निर्णय किसी मानव जीवन को लेने से संबंधित है, तो आप चाहते हैं कि यह ऐसा हो जिसमें इस तरह के निर्णय के बारे में अंतिम निर्णय कोई मानव ही ले।”
अमेरिका जैसे एआई विकास में अग्रणी राष्ट्रों ने कहा है कि गंभीर युद्धक्षेत्र निर्णयों में मानवीय तत्व यह गलत तरीके से होने वाली मौतों से बचने और मशीन-चालित संघर्ष को रोकने के लिए अत्यंत महत्वपूर्ण है।
सेना ने 500 दिवसीय एआई कार्यान्वयन योजना के तहत सैनिकों की सुरक्षा के लिए 2 नई रणनीतियां लागू कीं
यह शिखर सम्मेलन, जिसका आयोजन नीदरलैंड, सिंगापुर, केन्या और यूनाइटेड किंगडम ने संयुक्त रूप से किया था, अपनी तरह का दूसरा सम्मेलन था, इससे पहले पिछले वर्ष डच राजधानी में आयोजित पहले सम्मेलन में 60 से अधिक देशों ने भाग लिया था।
यह अभी भी स्पष्ट नहीं है कि चीन सहित 30 अन्य देशों ने एआई सुरक्षा उपाय स्थापित करने के लिए निर्माण खंडों पर सहमति न देने का विकल्प क्यों चुना, विशेषकर तब जब बीजिंग ने पिछले वर्ष शिखर सम्मेलन के दौरान इसी प्रकार के “कार्रवाई के आह्वान” का समर्थन किया था।
बुधवार को एक प्रेस कॉन्फ्रेंस के दौरान शिखर सम्मेलन के विवरण के लिए दबाव डाले जाने पर, चीनी विदेश मंत्रालय के प्रवक्ता माओ निंग ने कहा कि निमंत्रण पर, चीन ने शिखर सम्मेलन में एक प्रतिनिधिमंडल भेजा, जहां उसने “एआई शासन के चीन के सिद्धांतों पर विस्तार से चर्चा की।”
माओ ने अक्टूबर में चीनी राष्ट्रपति शी जिनपिंग द्वारा प्रस्तुत “एआई गवर्नेंस के लिए वैश्विक पहल” की ओर इशारा करते हुए कहा कि यह “चीन के शासन प्रस्तावों पर एक व्यवस्थित दृष्टिकोण प्रदान करता है।”
प्रवक्ता ने यह नहीं बताया कि चीन ने इस सप्ताह REAIM शिखर सम्मेलन के दौरान प्रस्तुत गैर-बाध्यकारी ब्लूप्रिंट का समर्थन क्यों नहीं किया, लेकिन उन्होंने कहा कि “चीन अन्य पक्षों के साथ काम करने में खुला और रचनात्मक बना रहेगा तथा AI विकास के माध्यम से मानवता के लिए अधिक ठोस परिणाम देगा।”
फॉक्स न्यूज ऐप प्राप्त करने के लिए यहां क्लिक करें
हरमन ने चेतावनी दी कि हालांकि अमेरिका और उसके सहयोगी देश सैन्य उपयोग में एआई प्रथाओं की सुरक्षा के लिए बहुपक्षीय समझौते स्थापित करने पर विचार करेंगे, लेकिन वे इस दिशा में बहुत कुछ करने की संभावना नहीं रखते हैं। विरोधी राष्ट्रों को रोकना चीन, रूस और ईरान जैसे देशों को घातक प्रौद्योगिकियां विकसित करने से रोका जा सके।
एआई विशेषज्ञ ने बताया, “जब आप परमाणु प्रसार या मिसाइल प्रौद्योगिकी के बारे में बात कर रहे हैं, तो सबसे अच्छा संयम निवारण है।” “आप उन लोगों को मजबूर करते हैं जो एआई के उपयोग को आगे बढ़ाने के लिए दृढ़ हैं – यहां तक कि एआई को मूल रूप से (एक) स्वचालित हत्या तंत्र के रूप में उपयोग करने के लिए, क्योंकि वे ऐसा करना अपने हित में देखते हैं – जिस तरह से आप उन्हें रोकते हैं वह यह स्पष्ट करके है कि यदि आप उस तरह के हथियार विकसित करते हैं, तो हम उनका उपयोग आपके खिलाफ उसी तरह कर सकते हैं।
हरमन ने कहा, “आप उन्हें नियंत्रित करने के लिए उनकी परोपकारिता की भावना या उच्च नैतिक मानकों पर भरोसा नहीं कर सकते, यह इस तरह से काम नहीं करता है।”
इस रिपोर्ट को बनाने में रॉयटर्स से मदद ली गई है।