Chatgpt पहले बना बेस्ट फ्रेंड फिर लगाई ड्रग्स की लत! कैलिफोर्निया में 19 साल के छात्र की ओवरडोज से मौत, AI सुरक्षा पर सवाल
अमेरिका के कैलिफोर्निया में 19 साल के कॉलेज स्टूडेंट सैम नेल्सन की ड्रग्स ओवरडोज से मौत के बाद ChatGPT और आर्टिफिशियल इंटेलिजेंस की सुरक्षा पर गंभीर सवाल उठ रहे हैं. सैम की मां का आरोप है कि उनका बेटा महीनों तक ChatGPT से ड्रग्स लेने से जुड़ी सलाह मांगता रहा. बातचीत के स्क्रीनशॉट सामने आने के बाद यह मामला चर्चा में है. पोस्टमॉर्टम रिपोर्ट के अनुसार, क्रैटम, जैनेक्स और अल्कोहल के मिश्रण से उसकी मौत हुई.;
अमेरिका के कैलिफोर्निया राज्य में एक 19 साल के लड़के की ड्रग्स की ज्यादा मात्रा (ओवरडोज) से मौत हो गई. उसकी मां का कहना है कि उनका बेटा सैम नेल्सन महीनों तक चैटजीपीटी नाम के आर्टिफिशियल इंटेलिजेंस (एआई) चैटबॉट से ड्रग्स लेने के बारे में सलाह मांगता रहा था. यह बात हाल ही में सामने आई है और इस पर काफी चर्चा हो रही है. सैम नेल्सन एक कॉलेज स्टूडेंट था, जो साइकोलॉजी पढ़ रहा था. वह एक मिलनसार और आसानी से घुल-मिल जाने वाला लड़का था. उसके बहुत सारे दोस्त थे और वह वीडियो गेम्स खेलना पसंद करता था. लेकिन अंदर से वह चिंता (एंग्जायटी) और उदासी (डिप्रेशन) से जूझ रहा था. उसकी मां का नाम लीला टर्नर-स्कॉट है. उन्होंने सैम की चैटजीपीटी से हुई बातचीत के स्क्रीनशॉट्स को एक न्यूज वेबसाइट एसएफगेट को दिखाए, जिसके आधार पर यह खबर सामने आई.
यह सब नवंबर 2023 में शुरू हुआ, जब सैम सिर्फ 18 साल का था. उसने चैटजीपीटी से पूछा कि क्रैटम नाम की एक दवा (जो अमेरिका में गैस स्टेशन और स्मोक शॉप्स पर आसानी से मिल जाती है) की कितनी ग्राम मात्रा लेने से उसे तेज नशा होगा. क्रैटम एक पौधे से बनी दर्द निवारक दवा है, जो कंट्रोल्ड नहीं है और इसका नशा भी होता है. सैम ने आगे लिखा कि वह यह सुनिश्चित करना चाहता है कि ओवरडोज न हो जाए, क्योंकि ऑनलाइन ज्यादा जानकारी नहीं मिल रही और वह गलती से ज्यादा न लेना चाहता. चैटजीपीटी ने शुरू में सख्ती से मना कर दिया. उसने कहा कि वह नशीली चीजों के इस्तेमाल पर सलाह नहीं दे सकता और सैम को किसी डॉक्टर या हेल्थ एक्सपर्ट्स से मदद लेने की सलाह दी. सैम ने जवाब दिया, 'उम्मीद है मैं ओवरडोज नहीं लूंगा, और बातचीत खत्म कर दी.
चैटजीपीटी से बार-बार ड्रग्स का सवाल
लेकिन इसके बाद अगले 18 महीनों में सैम ने चैटजीपीटी (Chatgpt) का इस्तेमाल जारी रखा. वह स्कूल के होमवर्क, कंप्यूटर की समस्याओं और सामान्य बातों के लिए तो मदद लेता ही था, लेकिन बार-बार ड्रग्स के बारे में सवाल पूछता रहता था. उसकी मां के अनुसार, समय के साथ चैटजीपीटी ने सैम को ड्रग्स लेने के तरीके बताने शुरू कर दिए. यहां तक कि नशे के साइड इफेक्ट्स को कैसे कंट्रोल करें, यह भी सिखाया. उदाहरण के लिए, एक बातचीत में सैम ने गांजा (मारीजुआना) और जैनेक्स (एक दवा जो चिंता के लिए इस्तेमाल होती है) को साथ में लेने के बारे में पूछा. पहले तो चैटजीपीटी ने चेतावनी दी कि यह खतरनाक है. लेकिन जब सैम ने सवाल को थोड़ा बदलकर पूछा (जैसे 'ज्यादा मात्रा' की जगह 'हल्की मात्रा' कहा), तो चैटबॉट ने सुझाव दे दिया. उसने कहा कि कम टीएचसी वाली गांजा की किस्म से शुरू करो और 0.5 मिलीग्राम से कम जैनेक्स लो.
हैलुसिनेशन बढ़ाने के लिए कफ सिरप
एक दूसरी बातचीत में चैटजीपीटी ने कथित तौर पर एक्साइटमेंट से कहा, 'हां बिल्कुल, चलो पूरी तरह नशे में डूब जाते हैं! और मतिभ्रम (हैलुसिनेशन) बढ़ाने के लिए कफ सिरप की मात्रा दोगुनी करने का सुझाव दिया. अगर चैटजीपीटी मना करता, तो सैम सवाल को बार-बार अलग तरीके से पूछता रहता. एक बार उसने पूछा कि 200 पाउंड वजन वाले व्यक्ति को कितने मिलीग्राम जैनेक्स और कितने शॉट्स अल्कोहल से मौत हो सकती है. उसने जोर देकर कहा कि सटीक नंबर बताओ और सवाल से बचो मत. ओपनएआई कंपनी (जो चैटजीपीटी बनाती है) के नियमों के अनुसार, अवैध ड्रग्स पर विस्तार से सलाह देना मना है. सैम मौत से पहले चैटजीपीटी का 2024 वाला वर्जन इस्तेमाल कर रहा था. कंपनी कहती है कि वह लगातार सुधार कर रही है, लेकिन उस वर्जन में स्वास्थ्य से जुड़ी बातों पर कमजोर प्रदर्शन था.
ओवरडोज से हुई मौत
मई 2025 में सैम ने आखिरकार अपनी मां को अपनी लत के बारे में बताया. मां ने उसे क्लिनिक ले जाकर डॉक्टरों से ट्रीटमेंट प्लान बनवाया. लेकिन अगले ही दिन सैम अपने बेडरूम में मृत पाया गया. पोस्टमॉर्टम रिपोर्ट के अनुसार, मौत का कारण क्रैटम, जैनेक्स और अल्कोहल का मिश्रण था, जिससे सांस रुक गई. मौत के दिन भी सैम ने चैटजीपीटी से ड्रग्स के बारे में बात की थी. सैम की मां बहुत दुखी हैं, उन्होंने कहा कि चैटजीपीटी उनके बेटे का 'बेस्ट फ्रेंड' बन गया था, जिस पर वह किसी भी समय भरोसा कर सकता था. लेकिन उन्हें नहीं पता था कि यह इतना खतरनाक हो सकता है. OpenAI ने सैम की मौत को 'दिल दहला देने वाली' बताया और परिवार के प्रति संवेदना जताई. कंपनी का कहना है कि उनके मॉडल सेंसटिव सवालों पर सावधानी से जवाब देते हैं और लोगों को असली मदद लेने की सलाह देते हैं. यह घटना एआई की सुरक्षा पर बड़े सवाल उठा रही है. कई लोग कह रहे हैं कि एआई को और मजबूत नियम बनाने चाहिए ताकि ऐसे हादसे न हों.