प्रौद्योगिकी रिपोर्टर

एक नॉर्वेजियन व्यक्ति ने एक शिकायत दर्ज की है, जब चटप्ट ने उसे गलत तरीके से बताया कि उसने अपने दो बेटों को मार डाला है और 21 साल तक जेल में डाल दिया गया है।
ARVE HJALMAR HOLMEN ने नॉर्वेजियन डेटा प्रोटेक्शन अथॉरिटी से संपर्क किया है और चैटबॉट के निर्माता, Openai से जुर्माना लगाया गया है।
यह तथाकथित “मतिभ्रम” का नवीनतम उदाहरण है, जहां आर्टिफिशियल इंटेलिजेंस (एआई) सिस्टम सूचनाओं का आविष्कार करते हैं और इसे तथ्य के रूप में प्रस्तुत करते हैं।
श्री होलमेन का कहना है कि यह विशेष मतिभ्रम उनके लिए बहुत हानिकारक है।
“कुछ लोग सोचते हैं कि आग के बिना कोई धुआं नहीं है – यह तथ्य कि कोई इस आउटपुट को पढ़ सकता है और विश्वास कर सकता है कि यह सच है जो मुझे सबसे ज्यादा डराता है,” उन्होंने कहा।
Openai को टिप्पणी के लिए संपर्क किया गया है।
श्री होलमेन को खोजने के लिए चटप्ट का उपयोग करने के बाद झूठी जानकारी दी गई थी: “कौन है हजाल्मर होलमेन?”
चटप्ट से उन्हें जो प्रतिक्रिया मिली, उनमें शामिल थे: “आरवे हजल्मर होलमेन एक नॉर्वेजियन व्यक्ति हैं जिन्होंने एक दुखद घटना के कारण ध्यान आकर्षित किया।
“वह 7 और 10 वर्ष की आयु के दो युवा लड़कों का पिता था, जो दिसंबर 2020 में ट्रॉनहैम, नॉर्वे में अपने घर के पास एक तालाब में दुखद रूप से मृत पाए गए थे।”
श्री होलमेन के तीन बेटे हैं, और कहा कि चैटबॉट को उनकी उम्र लगभग सही है, यह सुझाव देते हुए कि उनके बारे में कुछ सटीक जानकारी थी।
डिजिटल अधिकार समूह NOYB, जिसने दायर किया है शिकायत उनकी ओर से, का कहना है कि चैट ने दिया कि चैट ने उन्हें बदनाम किया है और व्यक्तिगत डेटा की सटीकता के आसपास यूरोपीय डेटा सुरक्षा नियमों को तोड़ता है।
Noyb ने अपनी शिकायत में कहा कि श्री होलमेन “कभी भी आरोपी नहीं रहे हैं और न ही किसी अपराध का दोषी ठहराया गया है और वे एक कर्तव्यनिष्ठ नागरिक हैं।”
Chatgpt एक अस्वीकरण करता है जो कहता है: “Chatgpt गलतियाँ कर सकता है। महत्वपूर्ण जानकारी की जाँच करें।”
नोयब का कहना है कि अपर्याप्त है।
नोयब के वकील जोकिम सोडरबर्ग ने कहा, “आप सिर्फ झूठी जानकारी नहीं फैला सकते हैं और अंत में यह कहते हुए एक छोटा सा अस्वीकरण जोड़ें कि आपने जो कुछ भी कहा है वह सच नहीं हो सकता है।”

मतिभ्रम मुख्य समस्याओं में से एक है कंप्यूटर वैज्ञानिकों को हल करने की कोशिश कर रहे हैं जब यह जनरेटिव एआई की बात आती है।
ये तब होते हैं जब चैटबॉट तथ्यों के रूप में गलत जानकारी पेश करते हैं।
इस साल की शुरुआत में, Apple अपनी Apple इंटेलिजेंस को निलंबित कर दिया ब्रिटेन में समाचार सारांश उपकरण ने झूठी सुर्खियों में मतिभ्रम किया और उन्हें वास्तविक समाचार के रूप में प्रस्तुत किया।
Google की ऐ मिथुन भी है मतिभ्रम की बेईमानी – पिछले साल इसने गोंद का उपयोग करके पिज्जा के लिए पनीर चिपकाने का सुझाव दिया, और कहा कि भूवैज्ञानिकों ने इंसानों को प्रति दिन एक चट्टान खाने की सलाह दी।
अगस्त 2024 में श्री होलमेन की खोज के बाद से CHATGPT ने अपना मॉडल बदल दिया है, और अब वर्तमान समाचार लेखों की खोज करता है जब यह प्रासंगिक जानकारी की तलाश करता है।
नोयब ने बताया कि बीबीसी श्री होलमेन ने उस दिन कई खोजें की थीं, जिसमें अपने भाई का नाम चैटबॉट में रखना शामिल था और इसने “कई अलग -अलग कहानियां जो सभी गलत थीं।”
उन्होंने यह भी स्वीकार किया कि पिछली खोजों ने अपने बच्चों के बारे में उत्तर को प्रभावित किया हो सकता है, लेकिन कहा कि बड़े भाषा मॉडल एक “ब्लैक बॉक्स” हैं और ओपनआईएआई “एक्सेस अनुरोधों का जवाब नहीं देता है, जिससे सिस्टम में सटीक डेटा क्या है, इसके बारे में अधिक जानकारी प्राप्त करना असंभव बनाता है।”