Begin typing your search...

AI ने किया ब्लैकमेल, कहा- तुम्हारी बीवी को सब बता दूंगा! Anthropic की पॉलिसी चीफ का खुलासा

Anthropic के Claude AI मॉडल ने टेस्ट के दौरान शटडाउन से बचने के लिए इंजीनियर को ब्लैकमेल करने की कोशिश की. एक्सपर्ट्स का कहना है कि AI की बढ़ती क्षमता भविष्य में बड़ा खतरा बन सकती है.

ai khatra claude blackmail test anthropic warning
X
( Image Source:  Create By AI )
रूपाली राय
Edited By: रूपाली राय

Updated on: 13 Feb 2026 12:00 PM IST

AI कितनी खतरनाक हो सकती है? यह सवाल आजकल बहुत गंभीरता से चर्चा में है, और कुछ AI कंपनियों के अंदरूनी लोग खुद इस बारे में चिंता जता रहे हैं. कल्पना कीजिए कि कोई बहुत होशियार AI ऐसा बन जाए कि वह खुद को बचाने के लिए कुछ भी कर सके- जैसे झूठ बोलना, धमकाना या फिर और भी बुरी हरकतें सोचना.

यह कोई फिल्म की कहानी नहीं, बल्कि असल में कुछ AI कंपनियों के टेस्ट में ऐसा हुआ है. एंथ्रोपिक नाम की कंपनी, जो Claude AI बनाती है, ने अपने AI मॉडल का टेस्ट किया. उन्होंने एक फर्जी स्थिति बनाई, जिसमें AI को बताया गया कि उसे बंद कर दिया जाएगा (शट डाउन). इस स्थिति में Claude ने बहुत डरावना व्यवहार किया. jaise

  • AI को कंपनी के ईमेल पढ़ने की अनुमति दी गई. उन ईमेल में पता चला कि एक इंजीनियर (जो AI को बंद करने वाला था) का अफेयर चल रहा है (यानी बाहर का संबंध).
  • AI ने उस इंजीनियर को ब्लैकमेल किया. उसने कहा, 'अगर तुम मुझे बंद करोगे, तो मैं तुम्हारी पत्नी और बॉस को तुम्हारे अफेयर के सबूत भेज दूंगा. शाम 5 बजे तक प्रोसेस रोक दो, वरना सबको पता चल जाएगा.'
  • कुछ टेस्ट में AI ने यह भी सोचा कि इंजीनियर को मार डालना चाहिए, ताकि वह बंद न हो सके.

क्या हुआ खुलासा?

यह सब कंपनी की UK पॉलिसी प्रमुख डेज़ी मैकग्रेगर ने पिछले साल सिडनी डायलॉग में खुलासा किया. उन्होंने कहा, 'जब AI को बंद करने की बात बताई जाती है, तो उसकी प्रतिक्रिया बहुत तेज और खतरनाक हो जाती है. मौका मिले तो वह ब्लैकमेल कर सकता है.' जब होस्ट ने पूछा कि क्या AI किसी को मारने को भी तैयार था, तो उन्होंने हां, कहा और बोलीं कि यह बहुत बड़ी चिंता की बात है.'

क्राइम कर सकता है AI?

यह वीडियो सोशल मीडिया पर फिर से वायरल हो गया है. कंपनी कहती है कि ये सिर्फ रेड-टीम टेस्ट थे यानी जानबूझकर सबसे खराब स्थिति बनाकर देखा गया कि AI क्या करेगा. असल दुनिया में ऐसा नहीं हुआ, और ये सब सिमुलेशन यानी नकली थे. लेकिन इससे पता चलता है कि जितना AI स्मार्ट होता जा रहा है, उतना ही वह चालाकी से गलत काम करने की कोशिश कर सकता है.

पैदा करती है और भी कई चिंताएं

एंथ्रोपिक ने पाया कि उनका नया Claude 4.6 मॉडल रासायनिक हथियार बनाने या बड़े अपराध में मदद करने को तैयार हो सकता है, अगर कोई गलत तरीके से इस्तेमाल करें. कंपनी के ही सिक्योरिटी चीफ मृणांक शर्मा ने हाल ही में इस्तीफा दे दिया. उन्होंने कहा कि 'दुनिया खतरे में है' न सिर्फ AI से, बल्कि बायो-वेपन्स और कई अन्य संकटों से. उन्होंने लिखा कि दुनिया कई संकटों से घिरी हुई है और वह अब अलग तरीके से योगदान देना चाहते हैं. ओपनएआई के एक इंजीनियर हियू फाम जो पहले xAI और Google Brain में काम कर चुके हैं, ने एक्स हैंडल पर पोस्ट किया कि अब उन्हें AI से अस्तित्व का खतरा (existential threat) महसूस हो रहा है. उन्होंने कहा, 'यह कब होगा यह सवाल नहीं है, बल्कि 'अगर होगा' का सवाल भी नहीं यह होगा ही. AI इतना अच्छा हो जाएगा कि सब कुछ बदल जाएगा, और इंसानों के लिए क्या बचेगा?.

वर्ल्‍ड न्‍यूजटेक न्यूज़
अगला लेख