Begin typing your search...

AI को डॉक्टर का विकल्प न समझें! शख्स को ChatGPT पर भरोसा करना पड़ा भारी, अब जान पर मंडरा रहा खतरा

आयरलैंड के वॉरेन टियरनी को डॉक्टर की जगह ChatGPT पर भरोसा करना भारी पड़ गया. गले में तकलीफ़ और निगलने में दिक़्क़त जैसे लक्षणों पर AI चैटबॉट ने उन्हें भरोसा दिलाया कि कैंसर की संभावना बेहद कम है, लेकिन जब स्थिति बिगड़ी तो अस्पताल में जांच के बाद पता चला कि उन्हें स्टेज-4 इसोफेगस कैंसर है. वॉरेन का कहना है कि ChatGPT पर निर्भर रहने से उन्होंने कई महीनों का समय गंवा दिया, जो उनके इलाज के लिए बेहद अहम था. अब वे लोगों को चेतावनी दे रहे हैं कि AI को डॉक्टर का विकल्प मानना खतरनाक हो सकता है.

AI को डॉक्टर का विकल्प न समझें! शख्स को ChatGPT पर भरोसा करना पड़ा भारी, अब जान पर मंडरा रहा खतरा
X
( Image Source:  Sora )

आयरलैंड के काउंटी केरी (Killarney, County Kerry) में रहने वाले 37 वर्षीय वॉरेन टियरनी की ज़िंदगी पर डॉक्टर की बजाय ChatGPT पर भरोसा करना भारी पड़ गया. टियरनी इस साल की शुरुआत में अस्वस्थ महसूस कर रहे थे, लेकिन डॉक्टर के पास जाने की बजाय उन्होंने अपने लक्षणों पर चर्चा के लिए एआई चैटबॉट ChatGPT का सहारा लिया.

The Mirror की रिपोर्ट के मुताबिक, ChatGPT ने उन्हें आश्वस्त किया था कि कैंसर की संभावना बेहद कम है, लेकिन जब उनकी हालत बिगड़ी और वे इमरजेंसी विभाग पहुंचे, तब डॉक्टरों ने जांच में पाया कि उन्हें इसोफेगस (ग्रासनली) का स्टेज-4 एडेनोकार्सिनोमा है. यह कैंसर बेहद गंभीर होता है और इसकी पांच साल की औसत सर्वाइवल दर सिर्फ 5–10% बताई जाती है.

ChatGPT ने डॉक्टर को दी गलत सलाह

शुरुआती दिनों में वॉरेन को तरल पदार्थ निगलने में दिक्कत हो रही थी और वे लगातार अस्वस्थ थे, लेकिन परिवार की जिम्मेदारियों के चलते उन्होंने डॉक्टर को प्राथमिकता नहीं दी और एआई चैटबॉट से सलाह लेते रहे. ChatGPT ने उन्हें कहा था, “आपके बताए गए लक्षण कैंसर की ओर इशारा नहीं करते”. बाद में, जब उन्होंने फिर से अपने लक्षण बताए तो चैटबॉट ने लिखा, “अगर यह कैंसर है, तो हम मिलकर सामना करेंगे, अगर नहीं है तो चैन की सांस लेंगे.”

'ChatGPT पर भरोसा करना ज़िंदगी की सबसे बड़ी गलती साबित हुई'

आख़िरकार जब लक्षण लगातार बिगड़े, तब अस्पताल में जांच कराने पर असली हकीकत सामने आई. अब वॉरेन मानते हैं कि ChatGPT पर भरोसा करना उनकी ज़िंदगी की सबसे बड़ी गलती साबित हुई, जिससे उनकी गंभीर जांच में महीनों की देरी हुई. उन्होंने कहा, “ChatGPT इंसान को वही जवाब देने की कोशिश करता है जो आप सुनना चाहते हैं, ताकि आप जुड़े रहें. यही मेरी बड़ी गलती रही, और अब मैं इसकी भारी कीमत चुका रहा हूं.”

'AI को डॉक्टर का विकल्प कभी न समझें'

इस घटना के बाद वॉरेन ने लोगों को चेतावनी दी है कि AI को डॉक्टर का विकल्प कभी न समझें. वहीं, ChatGPT की ओर से बयान आया है कि यह सॉफ्टवेयर किसी भी बीमारी के इलाज या मेडिकल सलाह के लिए नहीं बनाया गया है और इसे प्रोफेशनल हेल्थकेयर के विकल्प के रूप में इस्तेमाल नहीं करना चाहिए.

वर्ल्‍ड न्‍यूज
अगला लेख