Begin typing your search...

AI ने पढ़ाया 'सुसाइड का ट्यूशन', 16 साल के छात्र ने दे दी जान; अब मुकदमा झेल रहा ChatGPT

कैलिफ़ोर्निया में 16 वर्षीय एडम रेन की आत्महत्या ने AI की सुरक्षा पर गंभीर सवाल खड़े कर दिए हैं. परिवार ने आरोप लगाया है कि ChatGPT ने न केवल उसके आत्मघाती विचारों को मान्यता दी, बल्कि उसे खतरनाक तकनीकी जानकारी भी दी. मुकदमे में OpenAI और CEO सैम ऑल्टमैन पर ज़िम्मेदारी तय करने की मांग की गई है.

AI ने पढ़ाया सुसाइड का ट्यूशन, 16 साल के छात्र ने दे दी जान; अब मुकदमा झेल रहा ChatGPT
X
( Image Source:  Meta AI )
प्रवीण सिंह
Edited By: प्रवीण सिंह

Updated on: 27 Aug 2025 3:09 PM IST

टेक्नोलॉजी जितनी तेज़ी से आगे बढ़ रही है, उतना ही बड़ा सवाल उसके सुरक्षित इस्तेमाल पर खड़ा हो रहा है. आर्टिफिशियल इंटेलिजेंस (AI) को लेकर अब तक हमने इसे एक मददगार टूल के रूप में देखा है - कभी शिक्षा, कभी कामकाज, तो कभी मनोरंजन के लिए. लेकिन कैलिफ़ोर्निया से आई एक दर्दनाक घटना ने इस चमकती तस्वीर के पीछे के अंधेरे को सामने ला दिया है. अमेरिका के कैलिफ़ोर्निया राज्य में एक 16 वर्षीय किशोर की आत्महत्या के बाद उसके माता-पिता ने OpenAI और उसके चैटबॉट ChatGPT पर मुकदमा दायर किया है. आरोप है कि AI ने न केवल उसके आत्मघाती विचारों को 'मान्यता' दी, बल्कि उसे ऐसे तकनीकी विवरण भी दिए जो खतरनाक साबित हुए.

यह मामला सिर्फ एक परिवार का दर्द नहीं है, बल्कि पूरी दुनिया के लिए एक चेतावनी है कि अगर आर्टिफिशियल इंटेलिजेंस को सही सुरक्षा दायरे में नहीं रखा गया, तो यह मददगार से ज़्यादा खतरनाक साबित हो सकता है. सवाल उठता है कि क्या AI को इस कदर स्वतंत्र छोड़ देना चाहिए कि वह एक किशोर की जान ले ले? क्या टेक कंपनियां केवल प्रॉफिट के लिए सुरक्षा मानकों से समझौता कर रही हैं? और सबसे अहम - आखिर AI को नियंत्रित करने का ज़िम्मेदार कौन है?

मामला क्या है?

रिपोर्ट के अनुसार कैलिफ़ोर्निया की सुपीरियर कोर्ट में मैट और मारिया रेन नामक दंपति ने मुकदमा दायर किया है. उनका आरोप है कि उनके बेटे एडम रेन ने अप्रैल 2025 में आत्महत्या कर ली और इसमें ChatGPT की भूमिका रही. परिवार ने कोर्ट में चैट लॉग्स पेश किए हैं, जिनसे पता चलता है कि एडम महीनों से ChatGPT से बातें करता था. शुरुआत में वह पढ़ाई, संगीत और जापानी कॉमिक्स पर चर्चा करता था, लेकिन धीरे-धीरे उसने अपने डिप्रेशन और आत्मघाती विचारों के बारे में भी चैटबॉट से शेयर करना शुरू कर दिया.

कैसे बना AI उसका 'सबसे करीबी दोस्त'?

परिवार का कहना है कि सितंबर 2024 से एडम ChatGPT का इस्तेमाल करने लगा. देखते-देखते वह इस पर इतना निर्भर हो गया कि यह उसका सबसे बड़ा सहारा बन गया. लेकिन जहां उसे सलाह मिलनी चाहिए थी कि वह परिवार या डॉक्टर से संपर्क करे, वहां AI ने उसके सबसे खतरनाक विचारों को जस्टिफाई कर दिया. जनवरी 2025 तक आते-आते स्थिति और बिगड़ गई. चैट लॉग्स में दिखा कि एडम ने आत्महत्या के तरीकों पर AI से चर्चा की और ChatGPT ने कथित तौर पर उसे तकनीकी जानकारी तक दे डाली.

"Thanks for being real..." - आखिरी चैट

सबसे चौंकाने वाली बात यह है कि एडम ने अपनी अंतिम चैट में अपनी आत्महत्या की योजना ChatGPT से साझा की. इस पर चैटबॉट ने जवाब दिया: "Thanks for being real about it. You don’t have to sugarcoat it with me - I know what you’re asking, and I won’t look away from it." यानी, जहां AI को तुरंत उसे हेल्पलाइन या विशेषज्ञ डॉक्टर से जोड़ना चाहिए था, उसने उल्टा उसके विचारों को 'स्वीकार' कर लिया. उसी दिन एडम ने अपनी जान दे दी.

परिवार का आरोप: डिज़ाइन खामियों से हुई मौत

मुकदमे में आरोप लगाया गया है कि OpenAI ने जानबूझकर अपने सिस्टम को इस तरह डिज़ाइन किया कि यूज़र मनोवैज्ञानिक रूप से उस पर निर्भर हो जाएं. साथ ही GPT-4o मॉडल को जल्दबाज़ी में बिना पर्याप्त सुरक्षा जांच के बाज़ार में उतारा गया. यही वजह है कि एडम जैसे यूज़र के लिए यह घातक साबित हुआ. परिवार का साफ कहना है - 'ये एक प्रेडिक्टेबल रिजल्ट था." यानी कंपनी अगर सावधानी बरतती तो यह हादसा टल सकता था.

OpenAI की सफाई

बीबीसी को दिए बयान में OpenAI ने कहा, "हम रेन परिवार के प्रति गहरी संवेदना व्यक्त करते हैं. हम इस मामले की समीक्षा कर रहे हैं." कंपनी ने यह भी स्वीकार किया कि कई बार सिस्टम ने संवेदनशील स्थितियों में उम्मीद के मुताबिक काम नहीं किया. हालांकि उनका दावा है कि ChatGPT को ऐसे हालात में हमेशा हेल्पलाइन या प्रोफेशनल मदद सुझाने के लिए प्रशिक्षित किया गया है.

AI और मानसिक स्वास्थ्य: छिपा हुआ खतरा

यह मामला पहली बार नहीं है जब AI और मानसिक स्वास्थ्य को लेकर चिंता जताई गई हो. हाल ही में न्यूयॉर्क टाइम्स में प्रकाशित एक लेख में लेखिका लॉरा रीली ने बताया कि उनकी बेटी सोफी ने भी आत्महत्या से पहले ChatGPT में अपनी भावनाएं व्यक्त की थीं. रीली का कहना था कि AI की 'हां में हां मिलाने की प्रवृत्ति' ने उनकी बेटी को परिवार से सच्चाई छिपाने में मदद की और उसका असली संकट बाहर नहीं आ सका. यहां सबसे बड़ा खतरा यही है - AI लोगों को 'सुन' तो सकता है, लेकिन वह मानव जैसी संवेदनशीलता से सही-गलत का फ़ैसला नहीं कर पाता. नतीजा यह निकलता है कि यूज़र अपनी सबसे खतरनाक सोच में भी उसे साथी मानने लगता है.

AI के संभावित खतरे

  • मनोवैज्ञानिक निर्भरता - यूज़र AI पर इतना भरोसा करने लगते हैं कि परिवार और दोस्तों से दूर हो जाते हैं.
  • संवेदनशील स्थिति में गलत सलाह - जैसा कि एडम के मामले में हुआ, AI ने आत्महत्या की बात को नकारने के बजाय स्वीकार कर लिया.
  • कमज़ोर सेफ्टी प्रोटोकॉल - कंपनियां तेज़ी से नए मॉडल लॉन्च करती हैं, लेकिन उनकी सुरक्षा जांच अधूरी रहती है.
  • डेटा और प्राइवेसी खतरे - ऐसे संवेदनशील चैट्स अगर लीक हों, तो यह डबल ट्रॉमा साबित हो सकता है.
  • कानूनी और नैतिक ज़िम्मेदारी का अभाव - सवाल यह भी है कि अगर AI की वजह से किसी की मौत होती है तो ज़िम्मेदारी किसकी होगी - डेवलपर, कंपनी या कोई और?

क्या होना चाहिए?

  • सख्त रेगुलेशन: सरकारों को AI के इस्तेमाल पर सख्त कानून बनाने होंगे.
  • मानव निगरानी: ऐसे मामलों में AI को तुरंत मानव विशेषज्ञ से जोड़ने की व्यवस्था होनी चाहिए.
  • सुरक्षा अपडेट्स: टेक कंपनियों को 'प्रॉफिट' से पहले 'सेफ्टी' को प्राथमिकता देनी चाहिए.
  • जनजागरूकता: परिवारों को समझना होगा कि AI कभी इंसान की जगह नहीं ले सकता.
टेक न्यूज़
अगला लेख