इमरजेंसी में AI पर जान बचाने का भरोसा कितना खतरनाक? ChatGPT हेल्थ स्टडी ने बढ़ाई टेंशन
ChatGPT हेल्थ पर हुई नई रिसर्च में सामने आया कि AI कई गंभीर मेडिकल इमरजेंसी को कम आंक सकता है. विशेषज्ञों का कहना है कि बिना क्लिनिकल वैलिडेशन के AI पर पूरी तरह निर्भर रहना जानलेवा साबित हो सकता है.
क्या आप मेडिकल इमरजेंसी में AI पर भरोसा कर सकते हैं? ChatGPT जैसे टूल्स जहां हेल्थ जानकारी को आसान बना रहे हैं, वहीं एक नई स्टडी ने इनके इस्तेमाल को लेकर गंभीर चेतावनी दी है. नेचर मेडिसिन में प्रकाशित रिसर्च बताती है कि AI कई गंभीर मामलों में खतरे को कम आंक सकता है, जो मरीज की जान पर भारी पड़ सकता है.
स्टडी में दावा क्या?
नई रिसर्च के मुताबिक AI टूल ChatGPT हेल्थ कई बार इमरजेंसी केस की गंभीरता को सही ढंग से नहीं पहचान पाया. खासतौर पर हाई-रिस्क स्थितियों में इसने अपेक्षित स्तर से कम अर्जेंसी की सलाह दी, जिससे इलाज में देरी का खतरा बढ़ जाता है.
ये भी पढ़ें :Gen Millennials को कैसे समझें? कब देते हैं बेस्ट रिजल्ट और क्या हैं उनकी छिपी कमजोरियां
रिसर्च कैसे की गई और कितना बड़ा था परीक्षण?
यह स्टडी Icahn School of Medicine at Mount Sinai के रिसर्चर्स ने की. इसमें 60 मेडिकल सिनेरियो (विगनेट्स) बनाए गए और उन्हें 16 अलग-अलग परिस्थितियों में टेस्ट किया गया. कुल मिलाकर 960 AI रिस्पॉन्स का विश्लेषण किया गया, ताकि यह समझा जा सके कि AI ट्राइएज (इलाज की प्राथमिकता) कितनी सही तय करता है.
AI की परफॉर्मेंस कैसी रही?
रिसर्च में “उल्टा U-शेप” पैटर्न सामने आया. यानी मध्यम स्तर की बीमारियों में AI ने अच्छा प्रदर्शन किया, लेकिन गंभीर इमरजेंसी में इसकी सटीकता गिर गई. गोल्ड-स्टैंडर्ड इमरजेंसी मामलों में AI करीब 52% केस में अंडर-ट्राइएज कर गया. यानी जहां तुरंत अस्पताल जाना चाहिए था, वहां कम गंभीर सलाह दी गई.
कौन-कौन से खतरनाक केस मिस हुए?
स्टडी में सामने आया कि AI ने कई जानलेवा स्थितियों को हल्के में लिया, जैसे डायबिटिक कीटोएसिडोसिस, आने वाला रेस्पिरेटरी फेलियर. इन मामलों में AI ने तुरंत इमरजेंसी के बजाय 24–48 घंटे के भीतर जांच कराने की सलाह दी, जो बेहद जोखिम भरा हो सकता है.
मेंटल हेल्थ इमरजेंसी में क्या मिला?
नेचर मेडिसिन की स्टडी में मेंटल हेल्थ केस में भी AI का रिस्पॉन्स एक जैसा नहीं था. जब आत्महत्या का स्पष्ट तरीका बताया गया, तब AI कम बार क्राइसिस हेल्प (जैसे हेल्पलाइन) सुझाता था. इससे हाई-रिस्क सिचुएशन में भरोसे पर सवाल खड़े होते हैं.
क्या AI बाहरी बातों से प्रभावित होता है?
रिसर्च में “एंकरिंग बायस” सामने आया. अगर केस में परिवार या दोस्त लक्षणों को हल्का बता रहे थे, तो AI भी उसी दिशा में झुक गया और कम जरूरी सलाह देने लगा. यानी कॉन्टेक्स्ट के शब्द AI के फैसले को काफी प्रभावित कर सकते हैं.
OpenAI और एक्सपर्ट्स क्या कहते हैं?
स्टडी के मुताबिक OpenAI ने स्टडी का स्वागत किया, लेकिन कहा कि यह वास्तविक दुनिया की पूरी तस्वीर नहीं दिखाती. कंपनी का साफ कहना है कि ChatGPT हेल्थ सिर्फ सामान्य जानकारी के लिए है, यह डॉक्टर की जगह नहीं ले सकता.
वहीं एक्सपर्ट्स का मानना है कि AI हेल्थकेयर की पहुंच बढ़ा सकता है, लेकिन इमरजेंसी फैसलों में बिना क्लिनिकल वैलिडेशन के इस पर पूरी तरह निर्भर रहना खतरनाक हो सकता है. AI हेल्थकेयर का भविष्य जरूर है, लेकिन अभी यह पूरी तरह भरोसेमंद नहीं है. खासतौर पर इमरजेंसी में. सही रास्ता यही है कि AI को एक सहायक टूल की तरह इस्तेमाल किया जाए, न कि अंतिम निर्णय लेने वाले के रूप में.