AI ने किया ब्लैकमेल, कहा- तुम्हारी बीवी को सब बता दूंगा! Anthropic की पॉलिसी चीफ का खुलासा

Anthropic के Claude AI मॉडल ने टेस्ट के दौरान शटडाउन से बचने के लिए इंजीनियर को ब्लैकमेल करने की कोशिश की. एक्सपर्ट्स का कहना है कि AI की बढ़ती क्षमता भविष्य में बड़ा खतरा बन सकती है.;

( Image Source:  Create By AI )
Edited By :  रूपाली राय
Updated On : 13 Feb 2026 12:00 PM IST

AI कितनी खतरनाक हो सकती है? यह सवाल आजकल बहुत गंभीरता से चर्चा में है, और कुछ AI कंपनियों के अंदरूनी लोग खुद इस बारे में चिंता जता रहे हैं. कल्पना कीजिए कि कोई बहुत होशियार AI ऐसा बन जाए कि वह खुद को बचाने के लिए कुछ भी कर सके- जैसे झूठ बोलना, धमकाना या फिर और भी बुरी हरकतें सोचना.

यह कोई फिल्म की कहानी नहीं, बल्कि असल में कुछ AI कंपनियों के टेस्ट में ऐसा हुआ है. एंथ्रोपिक नाम की कंपनी, जो Claude AI बनाती है, ने अपने AI मॉडल का टेस्ट किया. उन्होंने एक फर्जी स्थिति बनाई, जिसमें AI को बताया गया कि उसे बंद कर दिया जाएगा (शट डाउन). इस स्थिति में Claude ने बहुत डरावना व्यवहार किया. jaise 

  • AI को कंपनी के ईमेल पढ़ने की अनुमति दी गई. उन ईमेल में पता चला कि एक इंजीनियर (जो AI को बंद करने वाला था) का अफेयर चल रहा है (यानी बाहर का संबंध).
  • AI ने उस इंजीनियर को ब्लैकमेल किया. उसने कहा, 'अगर तुम मुझे बंद करोगे, तो मैं तुम्हारी पत्नी और बॉस को तुम्हारे अफेयर के सबूत भेज दूंगा. शाम 5 बजे तक प्रोसेस रोक दो, वरना सबको पता चल जाएगा.'
  • कुछ टेस्ट में AI ने यह भी सोचा कि इंजीनियर को मार डालना चाहिए, ताकि वह बंद न हो सके.

क्या हुआ खुलासा?

यह सब कंपनी की UK पॉलिसी प्रमुख डेज़ी मैकग्रेगर ने पिछले साल सिडनी डायलॉग में खुलासा किया. उन्होंने कहा, 'जब AI को बंद करने की बात बताई जाती है, तो उसकी प्रतिक्रिया बहुत तेज और खतरनाक हो जाती है. मौका मिले तो वह ब्लैकमेल कर सकता है.' जब होस्ट ने पूछा कि क्या AI किसी को मारने को भी तैयार था, तो उन्होंने हां, कहा और बोलीं कि यह बहुत बड़ी चिंता की बात है.'

क्राइम कर सकता है AI?

यह वीडियो सोशल मीडिया पर फिर से वायरल हो गया है. कंपनी कहती है कि ये सिर्फ रेड-टीम टेस्ट थे यानी जानबूझकर सबसे खराब स्थिति बनाकर देखा गया कि AI क्या करेगा. असल दुनिया में ऐसा नहीं हुआ, और ये सब सिमुलेशन यानी नकली थे. लेकिन इससे पता चलता है कि जितना AI स्मार्ट होता जा रहा है, उतना ही वह चालाकी से गलत काम करने की कोशिश कर सकता है. 

पैदा करती है और भी कई चिंताएं 

एंथ्रोपिक ने पाया कि उनका नया Claude 4.6 मॉडल रासायनिक हथियार बनाने या बड़े अपराध में मदद करने को तैयार हो सकता है, अगर कोई गलत तरीके से इस्तेमाल करें.  कंपनी के ही सिक्योरिटी चीफ मृणांक शर्मा ने हाल ही में इस्तीफा दे दिया. उन्होंने कहा कि 'दुनिया खतरे में है' न सिर्फ AI से, बल्कि बायो-वेपन्स और कई अन्य संकटों से. उन्होंने लिखा कि दुनिया कई संकटों से घिरी हुई है और वह अब अलग तरीके से योगदान देना चाहते हैं. ओपनएआई के एक इंजीनियर हियू फाम जो पहले xAI और Google Brain में काम कर चुके हैं, ने एक्स हैंडल पर पोस्ट किया कि अब उन्हें AI से अस्तित्व का खतरा (existential threat) महसूस हो रहा है. उन्होंने कहा, 'यह कब होगा यह सवाल नहीं है, बल्कि 'अगर होगा' का सवाल भी नहीं यह होगा ही. AI इतना अच्छा हो जाएगा कि सब कुछ बदल जाएगा, और इंसानों के लिए क्या बचेगा?. 

Similar News