जब नैदानिक ​​छवियों की व्याख्या करने की बात आती है तो कृत्रिम बुद्धिमत्ता स्वास्थ्य देखभाल पेशेवरों और शोधकर्ताओं के लिए एक उपयोगी उपकरण हो सकती है। जहां एक रेडियोलॉजिस्ट एक्स-रे से फ्रैक्चर और अन्य असामान्यताओं की पहचान कर सकता है, वहीं एआई मॉडल उन पैटर्न को देख सकते हैं जिन्हें मनुष्य नहीं देख सकते हैं, जिससे मेडिकल इमेजिंग की प्रभावशीलता का विस्तार करने का अवसर मिलता है।

लेकिन एक अध्ययन में वैज्ञानिक रिपोर्ट मेडिकल इमेजिंग अनुसंधान में एआई के उपयोग की एक छिपी हुई चुनौती पर प्रकाश डालता है – अत्यधिक सटीक लेकिन संभावित रूप से भ्रामक परिणामों की घटना जिसे “शॉर्टकट लर्निंग” के रूप में जाना जाता है।

शोधकर्ताओं ने नेशनल इंस्टीट्यूट ऑफ हेल्थ द्वारा वित्त पोषित ऑस्टियोआर्थराइटिस इनिशिएटिव से 25,000 से अधिक घुटने के एक्स-रे का विश्लेषण किया और पाया कि एआई मॉडल असंबंधित और अविश्वसनीय लक्षणों की “भविष्यवाणी” कर सकते हैं जैसे कि क्या मरीज़ रिफाइंड बीन्स या बीयर खाने से परहेज करते हैं। हालाँकि इन भविष्यवाणियों का कोई चिकित्सीय आधार नहीं है, लेकिन मॉडलों ने डेटा में सूक्ष्म और अनपेक्षित पैटर्न का फायदा उठाकर सटीकता के आश्चर्यजनक स्तर हासिल किए।

“हालांकि एआई में मेडिकल इमेजिंग को बदलने की क्षमता है, हमें सतर्क रहना चाहिए,” अध्ययन के वरिष्ठ लेखक, डार्टमाउथ हेल्थ के डार्टमाउथ हिचकॉक मेडिकल सेंटर के ऑर्थोपेडिक सर्जन और डार्टमाउथ के गिसेल स्कूल ऑफ मेडिसिन में ऑर्थोपेडिक्स के सहायक प्रोफेसर डॉ. पीटर शिलिंग कहते हैं। .

शिलिंग कहते हैं, “ये मॉडल ऐसे पैटर्न देख सकते हैं जिन्हें मनुष्य नहीं देख सकते, लेकिन उनके द्वारा पहचाने गए सभी पैटर्न सार्थक या विश्वसनीय नहीं हैं।” “भ्रामक निष्कर्षों को रोकने और वैज्ञानिक अखंडता सुनिश्चित करने के लिए इन जोखिमों को पहचानना महत्वपूर्ण है।”

शोधकर्ताओं ने जांच की कि कैसे एआई एल्गोरिदम अक्सर चिकित्सीय रूप से सार्थक विशेषताओं के बजाय भविष्यवाणियां करने के लिए भ्रमित करने वाले चर – जैसे एक्स-रे उपकरण या नैदानिक ​​​​साइट मार्करों में अंतर – पर भरोसा करते हैं। इन पूर्वाग्रहों को खत्म करने के प्रयास केवल मामूली रूप से सफल रहे – एआई मॉडल केवल अन्य छिपे हुए डेटा पैटर्न को “सीख” लेंगे।

अध्ययन के सह-लेखक और डार्टमाउथ हिचकॉक में मशीन लर्निंग वैज्ञानिक ब्रैंडन हिल कहते हैं, “यह नस्ल या लिंग के सुराग से पूर्वाग्रह से परे है।” “हमने पाया कि एल्गोरिदम उस वर्ष की भविष्यवाणी करना भी सीख सकता है जिस वर्ष एक्स-रे लिया गया था। यह खतरनाक है – जब आप इसे इनमें से किसी एक तत्व को सीखने से रोकते हैं, तो यह इसके बजाय दूसरे को सीख लेगा जिसे उसने पहले नजरअंदाज कर दिया था। यह खतरा वास्तव में कुछ को जन्म दे सकता है संदिग्ध दावे, और शोधकर्ताओं को इस बात से अवगत होना चाहिए कि इस तकनीक का उपयोग करते समय यह कितनी आसानी से होता है।”

निष्कर्ष एआई-आधारित चिकित्सा अनुसंधान में कठोर मूल्यांकन मानकों की आवश्यकता को रेखांकित करते हैं। गहन जांच के बिना मानक एल्गोरिदम पर अत्यधिक निर्भरता गलत नैदानिक ​​​​अंतर्दृष्टि और उपचार पथ को जन्म दे सकती है।

हिल कहते हैं, “जब चिकित्सा में नए पैटर्न की खोज के लिए मॉडल का उपयोग करने की बात आती है तो सबूत का बोझ बहुत बढ़ जाता है।” “समस्या का एक हिस्सा हमारा अपना पूर्वाग्रह है। यह मान लेना अविश्वसनीय रूप से आसान है कि मॉडल वैसा ही ‘देखता’ है जैसा हम देखते हैं। अंत में, ऐसा नहीं होता है।”

हिल आगे कहते हैं, “एआई लगभग एक एलियन इंटेलिजेंस से निपटने जैसा है।” “आप यह कहना चाहते हैं कि मॉडल ‘धोखा’ दे रहा है, लेकिन यह प्रौद्योगिकी का मानवरूपीकरण करता है। इसने उसे दिए गए कार्य को हल करने का एक तरीका सीखा, लेकिन जरूरी नहीं कि कोई व्यक्ति इसे कैसे हल करेगा। इसमें कोई तर्क या तर्क नहीं है जैसा कि हम आम तौर पर समझते हैं यह।”

शिलिंग, हिल और अध्ययन के सह-लेखक फ्रांसिस कोबैक, जो डार्टमाउथ के गीज़ेल स्कूल में तीसरे वर्ष के मेडिकल छात्र हैं, ने व्हाइट रिवर जंक्शन, वीटी में वेटरन्स अफेयर्स मेडिकल सेंटर के सहयोग से अध्ययन किया।



Source link

कोई जवाब दें

कृपया अपनी टिप्पणी दर्ज करें!
कृपया अपना नाम यहाँ दर्ज करें