Begin typing your search...

इमरजेंसी में AI पर जान बचाने का भरोसा कितना खतरनाक? ChatGPT हेल्थ स्टडी ने बढ़ाई टेंशन

ChatGPT हेल्थ पर हुई नई रिसर्च में सामने आया कि AI कई गंभीर मेडिकल इमरजेंसी को कम आंक सकता है. विशेषज्ञों का कहना है कि बिना क्लिनिकल वैलिडेशन के AI पर पूरी तरह निर्भर रहना जानलेवा साबित हो सकता है.

AI in healthcare ChatGPT Health study AI emergency risk
X
( Image Source:  Sora AI )

क्या आप मेडिकल इमरजेंसी में AI पर भरोसा कर सकते हैं? ChatGPT जैसे टूल्स जहां हेल्थ जानकारी को आसान बना रहे हैं, वहीं एक नई स्टडी ने इनके इस्तेमाल को लेकर गंभीर चेतावनी दी है. नेचर मेडिसिन में प्रकाशित रिसर्च बताती है कि AI कई गंभीर मामलों में खतरे को कम आंक सकता है, जो मरीज की जान पर भारी पड़ सकता है.

स्टडी में दावा क्या?

नई रिसर्च के मुताबिक AI टूल ChatGPT हेल्थ कई बार इमरजेंसी केस की गंभीरता को सही ढंग से नहीं पहचान पाया. खासतौर पर हाई-रिस्क स्थितियों में इसने अपेक्षित स्तर से कम अर्जेंसी की सलाह दी, जिससे इलाज में देरी का खतरा बढ़ जाता है.

रिसर्च कैसे की गई और कितना बड़ा था परीक्षण?

यह स्टडी Icahn School of Medicine at Mount Sinai के रिसर्चर्स ने की. इसमें 60 मेडिकल सिनेरियो (विगनेट्स) बनाए गए और उन्हें 16 अलग-अलग परिस्थितियों में टेस्ट किया गया. कुल मिलाकर 960 AI रिस्पॉन्स का विश्लेषण किया गया, ताकि यह समझा जा सके कि AI ट्राइएज (इलाज की प्राथमिकता) कितनी सही तय करता है.

AI की परफॉर्मेंस कैसी रही?

रिसर्च में “उल्टा U-शेप” पैटर्न सामने आया. यानी मध्यम स्तर की बीमारियों में AI ने अच्छा प्रदर्शन किया, लेकिन गंभीर इमरजेंसी में इसकी सटीकता गिर गई. गोल्ड-स्टैंडर्ड इमरजेंसी मामलों में AI करीब 52% केस में अंडर-ट्राइएज कर गया. यानी जहां तुरंत अस्पताल जाना चाहिए था, वहां कम गंभीर सलाह दी गई.

कौन-कौन से खतरनाक केस मिस हुए?

स्टडी में सामने आया कि AI ने कई जानलेवा स्थितियों को हल्के में लिया, जैसे डायबिटिक कीटोएसिडोसिस, आने वाला रेस्पिरेटरी फेलियर. इन मामलों में AI ने तुरंत इमरजेंसी के बजाय 24–48 घंटे के भीतर जांच कराने की सलाह दी, जो बेहद जोखिम भरा हो सकता है.

मेंटल हेल्थ इमरजेंसी में क्या मिला?

नेचर मेडिसिन की स्टडी में मेंटल हेल्थ केस में भी AI का रिस्पॉन्स एक जैसा नहीं था. जब आत्महत्या का स्पष्ट तरीका बताया गया, तब AI कम बार क्राइसिस हेल्प (जैसे हेल्पलाइन) सुझाता था. इससे हाई-रिस्क सिचुएशन में भरोसे पर सवाल खड़े होते हैं.

क्या AI बाहरी बातों से प्रभावित होता है?

रिसर्च में “एंकरिंग बायस” सामने आया. अगर केस में परिवार या दोस्त लक्षणों को हल्का बता रहे थे, तो AI भी उसी दिशा में झुक गया और कम जरूरी सलाह देने लगा. यानी कॉन्टेक्स्ट के शब्द AI के फैसले को काफी प्रभावित कर सकते हैं.

OpenAI और एक्सपर्ट्स क्या कहते हैं?

स्टडी के मुताबिक OpenAI ने स्टडी का स्वागत किया, लेकिन कहा कि यह वास्तविक दुनिया की पूरी तस्वीर नहीं दिखाती. कंपनी का साफ कहना है कि ChatGPT हेल्थ सिर्फ सामान्य जानकारी के लिए है, यह डॉक्टर की जगह नहीं ले सकता.

वहीं एक्सपर्ट्स का मानना है कि AI हेल्थकेयर की पहुंच बढ़ा सकता है, लेकिन इमरजेंसी फैसलों में बिना क्लिनिकल वैलिडेशन के इस पर पूरी तरह निर्भर रहना खतरनाक हो सकता है. AI हेल्थकेयर का भविष्य जरूर है, लेकिन अभी यह पूरी तरह भरोसेमंद नहीं है. खासतौर पर इमरजेंसी में. सही रास्ता यही है कि AI को एक सहायक टूल की तरह इस्तेमाल किया जाए, न कि अंतिम निर्णय लेने वाले के रूप में.

हेल्‍थ
अगला लेख