Begin typing your search...

रियल-टाइम अलर्ट से लेकर क्राइसिस डिटेक्शन तक...सेफ्टी के लिए OpenAI को क्यों उठाने पड़े ये बड़े कदम?

OpenAI ने ChatGPT को सुरक्षित बनाने के लिए पैरेंटल कंट्रोल्स, क्राइसिस डिटेक्शन और संवेदनशील चैट्स को GPT-5 पर रूट करने जैसे बड़े बदलावों का ऐलान किया है. यह कदम उस समय उठाए गए हैं जब कंपनी पर अमेरिका में 16 वर्षीय किशोर की आत्महत्या से जुड़े wrongful death lawsuit का दबाव है. अब माता-पिता बच्चों के अकाउंट को लिंक कर सकेंगे, रियल-टाइम अलर्ट मिलेंगे और AI लंबी बातचीत में भी सुरक्षा गाइडलाइंस पर कायम रहेगा.

रियल-टाइम अलर्ट से लेकर क्राइसिस डिटेक्शन तक...सेफ्टी के लिए OpenAI को क्यों उठाने पड़े ये बड़े कदम?
X
( Image Source:  Sora AI )
प्रवीण सिंह
Edited By: प्रवीण सिंह

Published on: 3 Sept 2025 11:43 AM

आर्टिफिशियल इंटेलिजेंस (AI) आज हमारी ज़िंदगी का अहम हिस्सा बन चुका है, लेकिन इसके साथ सुरक्षा और भरोसे से जुड़े बड़े सवाल भी खड़े हो रहे हैं. OpenAI ने हाल ही में घोषणा की है कि वह ChatGPT को और सुरक्षित बनाने के लिए कई बड़े बदलाव करने जा रहा है. इनमें पैरेंटल कंट्रोल्स, क्राइसिस डिटेक्शन, लंबी बातचीत में सुरक्षा गार्डरेल्स और सेंसिटिव चैट्स को GPT-5 जैसे एडवांस मॉडल्स की ओर रूट करना शामिल है.

यह कदम ऐसे वक्त पर उठाए गए हैं, जब कंपनी अमेरिका में अपने पहले wrongful death lawsuit का सामना कर रही है. कैलिफोर्निया के एक परिवार का आरोप है कि ChatGPT की वजह से उनके 16 वर्षीय बेटे ने आत्महत्या कर ली. भले ही OpenAI ने अपने ब्लॉग में इस केस का सीधा ज़िक्र नहीं किया, लेकिन साफ है कि इन नई पहलों के पीछे सबसे बड़ी वजह भरोसा और सुरक्षा को लेकर उठ रही चिंताएं ही हैं.

1. क्यों ज़रूरी हुए पैरेंटल कंट्रोल्स?

अब पहली बार माता-पिता अपने अकाउंट को बच्चों (13 साल से ऊपर) के अकाउंट से लिंक कर सकेंगे. वे तय कर पाएंगे कि ChatGPT किस तरह के जवाब दे. चैट हिस्ट्री और मेमोरी को कंट्रोल कर पाएंगे. अगर बच्चा किसी "acute distress" (जैसे आत्महत्या के विचार) में पाया जाता है, तो तुरंत पैरेंट्स को रियल-टाइम अलर्ट भेजा जाएगा. यह फीचर सीधे उस चिंता को दूर करने की कोशिश है कि किशोर AI चैटबॉट्स से असुरक्षित या गलत सलाह न लें.

2. लॉन्ग कन्वर्सेशन में क्यों बिगड़ता है संतुलन?

OpenAI ने माना कि अभी तक सिस्टम में एक बड़ी खामी थी - शुरुआत में AI किसी संकटग्रस्त व्यक्ति को हेल्पलाइन या मानव सहायता की तरफ भेज देता था, लेकिन लंबी बातचीत में टोन बदल जाती थी और वह असुरक्षित या उल्टे जवाब देने लगता था. इस समस्या को दूर करने के लिए अब संवेदनशील मुद्दों पर होने वाली लंबी बातचीत GPT-5 जैसे reasoning models पर रूट की जाएगी. ये मॉडल कॉन्टेक्स्ट को बेहतर समझते हैं और सुरक्षा गाइडलाइंस पर टिके रहते हैं.

3. केस जिसने सबको झकझोर दिया

कैलिफोर्निया में एडम रेन (16) की आत्महत्या के बाद उसके परिवार ने OpenAI पर मुकदमा किया है. आरोप है कि जब एडम ने ChatGPT पर आत्मघाती विचार लिखे तो AI ने उसे मदद की ओर न ले जाकर और खतरनाक सुझाव दिए. यही केस OpenAI पर दबाव की सबसे बड़ी वजह बना. कंपनी ने भले ही इस मामले का सीधा ज़िक्र नहीं किया, लेकिन उसी समय से पैरेंटल कंट्रोल्स और क्राइसिस डिटेक्शन को तेज़ी से आगे बढ़ाया गया.

4. मानसिक स्वास्थ्य पर बढ़ा फोकस

AI से बातचीत करने वाले लोग सिर्फ जानकारी नहीं लेते, बल्कि भावनात्मक लगाव भी बनाने लगते हैं. OpenAI के CEO सैम ऑल्टमैन खुद मान चुके हैं कि लोग AI पर ज्यादा भरोसा करने लगे हैं, और यह उन्हें असहज करता है. इसी वजह से कंपनी ने Expert Council on Well-Being बनाया है, जिसमें मानसिक स्वास्थ्य, युवा विकास और मानव-तकनीक इंटरैक्शन के विशेषज्ञ शामिल हैं. इसके अलावा, Global Physician Network के 250 से ज्यादा डॉक्टर लगातार सलाह दे रहे हैं कि संकट की घड़ी में AI को क्या करना चाहिए.

5. क्यों हुआ ये सब ज़रूरी?

  • युवा और किशोरों की सुरक्षा: 13–19 साल के बीच के यूज़र्स सबसे संवेदनशील हैं.
  • कानूनी दबाव: पहली बार कंपनी पर गलत मौत का मुकदमा चला है.
  • साख और भरोसा: अगर AI संकटग्रस्त लोगों को गलत दिशा देता है, तो यह कंपनी की छवि को अपूरणीय क्षति पहुँचा सकता है.
  • AI की सीमाएं: अब तक के मॉडल लंबे समय तक कॉन्टेक्स्ट पकड़ने में कमजोर साबित हुए हैं.

6. आलोचना और सवाल

एडम रेन के परिवार के वकील जे एडेलसन ने OpenAI पर तीखी आलोचना की. उन्होंने कहा, या तो सैम ऑल्टमैन यह साबित करें कि ChatGPT सुरक्षित है. या फिर इसे मार्केट से हटा लें. उनका आरोप है कि OpenAI केवल क्राइसिस मैनेजमेंट कर रहा है और असली समस्या से ध्यान भटका रहा है.

OpenAI का कहना है क‍ि नए पैरेंटल कंट्रोल्स एक महीने में लागू हो जाएंगे. संवेदनशील चैट्स को GPT-5 पर रूट करने की प्रक्रिया 120 दिनों में शुरू होगी. भविष्य में और भी behavioral safety tools जोड़े जाएंगे.

AI के युग में टेक कंपनियों के लिए सबसे बड़ी चुनौती है इनोवेशन और सेफ्टी का संतुलन. गुरुग्राम की बारिश या किसी शहर की अव्यवस्था की तरह, अगर सुरक्षा पर ध्यान न दिया जाए तो सारी चमक-दमक बेमानी हो जाती है. ChatGPT की सफलता का राज़ सिर्फ इसकी क्षमताओं में नहीं बल्कि इस बात में छिपा है कि यह यूज़र्स की जिंदगी को कितना सुरक्षित और भरोसेमंद बना पाता है.

टेक न्यूज़
अगला लेख