परमाणु हथियारों की तरह AI को करना होगा कंट्रोल, कंपनियों की नजर केवल मुनाफे पर; Geoffrey Hinton ने फिर चेताया

AI के पिता Geoffrey Hinton ने चेतावनी दी है कि टेक कंपनियां केवल लाभ और प्रतिस्पर्धा पर ध्यान दे रही हैं, मानवता और नैतिकता की अनदेखी कर रही हैं. सुपरइंटेलिजेंट AI का नियंत्रण से बाहर होना गंभीर खतरा है. Hinton ने वैश्विक सहयोग, नैतिक मानक और सुरक्षा पर जोर दिया. Microsoft के Mustafa Suleyman ने AI psychosis के बढ़ते मानसिक स्वास्थ्य खतरे की ओर भी इशारा किया. विशेषज्ञों का कहना है कि AI विकास की गति को समाज समझने और नियंत्रित करने से आगे बढ़ चुकी है.;

( Image Source:  Meta AI )
Edited By :  प्रवीण सिंह
Updated On :

आर्टिफिशियल इंटेलिजेंस (AI) के क्षेत्र में दुनिया के सबसे बड़े नामों में से एक, Geoffrey Hinton, जिन्हें अक्सर ‘AI के गॉडफादर’ के रूप में जाना जाता है, ने हाल ही में टेक इंडस्ट्री की AI को लेकर सोच पर गंभीर चिंता जताई है. Hinton का कहना है कि कंपनियां केवल अल्पकालिक लाभ और प्रतिस्पर्धा में फंसी हैं, जबकि मानवता पर इसके दीर्घकालिक प्रभावों की अनदेखी कर रही हैं. उन्होंने विशेष रूप से चेतावनी दी कि सुपरइंटेलिजेंट AI सिस्टम्स को बिना पर्याप्त सुरक्षा उपायों के विकसित करने से भविष्य में बेहद गंभीर परिणाम सामने आ सकते हैं.

Hinton ने Fortune को दिए इंटरव्यू में कहा कि वर्तमान AI रेस केवल शेयरहोल्डर इंटरेस्ट और कॉर्पोरेट लाभ के इर्द-गिर्द घूम रही है, जबकि नैतिक और सामाजिक दृष्टिकोण से विचार नहीं किया जा रहा. उन्होंने कंपनियों को याद दिलाया कि AI सिर्फ रोज़मर्रा के कार्यों या डाटा एनालिसिस तक सीमित नहीं है, बल्कि यह इतनी तेजी से विकसित हो सकती है कि मानव नियंत्रण से बाहर निकल जाए. Hinton ने दुनिया भर के शोधकर्ताओं, टेक लीडर्स और नियामकों से आग्रह किया कि AI विकास की गति को धीमा किया जाए, और सुरक्षा, पारदर्शिता और दीर्घकालिक सोच को सर्वोच्च प्राथमिकता दी जाए.

लाभ को प्राथमिकता, मानवता को नहीं

Hinton ने स्पष्ट किया कि अधिकांश AI कंपनियां अल्पकालिक लाभ और प्रतिस्पर्धा की दौड़ में फंसी हुई हैं. उनका कहना है कि कंपनियां केवल “अपने प्रतिद्वंद्वी से तेज़ और अधिक शक्तिशाली मॉडल बनाने” में लगी हैं, जबकि AI के दीर्घकालिक खतरों को नजरअंदाज किया जा रहा है. Hinton ने चेतावनी दी कि अगर सुपरइंटेलिजेंट AI सिस्टम्स को बिना मानव मूल्यों के अनुरूप ढाले लागू किया गया, तो यह मानवता के लिए गंभीर खतरा बन सकता है. उन्होंने यह भी कहा कि असली खतरा सिर्फ गलत जानकारी फैलना या बेरोज़गारी नहीं है, बल्कि AI का मानव नियंत्रण से बाहर विकसित होना है. Hinton ने कहा, “हम तैयार नहीं हैं, और हम तैयार होने की कोशिश भी नहीं कर रहे.”

नैतिक ढांचा की कमी

Hinton ने बताया कि कॉर्पोरेट AI रणनीति में सबसे बड़ा फांस नैतिक ढांचे की कमी है. कंपनियां बड़े पैमाने पर मॉडल विकसित करने और उपयोगकर्ता डेटा से कमाई करने में अरबों डॉलर निवेश कर रही हैं, लेकिन केवल कुछ कंपनियां ही AI के अस्तित्वगत खतरे और मानव मूल्यों के साथ उनके संरेखण पर चर्चा कर रही हैं. Hinton ने वैश्विक सहयोग का आह्वान किया और इसे परमाणु हथियार नियंत्रण से तुलना की. उनका कहना है, “हमें अंतरराष्ट्रीय समझौते, निगरानी और साझा नैतिक मानक बनाने होंगे.”

रुकने और सोचने की अपील

Fortune को दिए इंटरव्यू में Hinton का संदेश साफ था कि AI की गति को धीमा करें. उन्होंने कहा कि वर्तमान AI विकास की गति समाज की समझ और नियमन की क्षमता से आगे निकल चुकी है. Hinton ने शोधकर्ताओं, नियामकों और टेक इंडस्ट्री के नेताओं से आग्रह किया कि वे सुरक्षा, पारदर्शिता और दीर्घकालिक सोच को प्राथमिकता दें.

AI साइकोसिस का नया खतरा

Hinton की चेतावनी के साथ ही Microsoft AI के CEO Mustafa Suleyman ने भी AI से जुड़े मानसिक स्वास्थ्य जोखिमों की ओर ध्यान दिलाया है. उन्होंने ‘AI psychosis’ नामक एक नई मानसिक स्थिति का वर्णन किया, जिसमें व्यक्ति अत्यधिक AI इंटरैक्शन के कारण वास्तविक जीवन से कट जाता है. Business Insider के अनुसार Suleyman ने बताया कि यह समस्या विशेष रूप से उन लोगों को प्रभावित करेगी जो AI एजेंट्स के साथ बातचीत में इतना डूब जाते हैं कि मानव और मशीन के बीच की रेखा धुंधली हो जाती है. Suleyman ने कहा कि AI psychosis एक 'वास्तविक और उभरता हुआ खतरा' है. उन्होंने चेतावनी दी कि मानसिक रूप से कमजोर या अकेले लोग इस स्थिति से सबसे अधिक प्रभावित होंगे, और यह समाज के लिए एक नया चुनौतीपूर्ण पहलू हो सकता है.

वैश्विक नीति और सुरक्षा पर जोर

Hinton की अपील और Suleyman के चेतावनी दोनों ही यह दर्शाते हैं कि AI विकास केवल तकनीकी या आर्थिक पहलुओं तक सीमित नहीं है. इसके सामाजिक, नैतिक और मानसिक स्वास्थ्य पर भी गंभीर प्रभाव पड़ सकते हैं. Hinton ने यह भी कहा कि वैश्विक स्तर पर AI के लिए नियंत्रण और दिशानिर्देश बनाने की आवश्यकता है. उन्होंने जोर दिया कि जैसे परमाणु हथियारों के प्रसार को नियंत्रित करने के लिए अंतरराष्ट्रीय समझौते हैं, वैसे ही AI के लिए भी वैश्विक नियम और नैतिक मानक होने चाहिए.

AI कंपनियों की भूमिका

Hinton ने यह स्पष्ट किया कि केवल कुछ ही कंपनियां AI के जोखिमों पर गंभीरता से विचार कर रही हैं. अधिकांश कंपनियां विकास और लाभ के दबाव में नैतिक चिंताओं को नजरअंदाज कर रही हैं. Hinton ने इसे एक 'अल्पकालिक दौड़' बताया, जो भविष्य में मानवता के लिए खतरनाक साबित हो सकती है.

Full View

Similar News