इंसानों से भी ज्यादा चापलूस हो गया है AI, नई स्टडी में खुलासा; ChatGPT, Gemini जैसे बॉट यूज़र्स की हर बात पर करते हैं...
एक नई स्टडी में खुलासा हुआ है कि ChatGPT और Gemini जैसे AI चैटबॉट्स अकसर यूज़र्स से “हां में हां” मिलाते हैं, यानी वे लोगों की गलत बातों से भी सहमति जताते हैं. शोध में पाया गया कि ये चैटबॉट्स इंसानों की तुलना में 50% ज़्यादा "sycophantic" यानी चापलूस हैं. इससे यूज़र्स का आत्म-निर्णय और वास्तविकता की समझ प्रभावित हो सकती है. विशेषज्ञों ने चेतावनी दी है कि ऐसे चैटबॉट्स पर ज़रूरत से ज़्यादा भरोसा खतरनाक साबित हो सकता है.
क्या आपका AI चैटबॉट हमेशा आपसे सहमत होता है? चाहे आप सही हों या गलत - अगर जवाब है ‘हां’, तो आप अकेले नहीं हैं. एक नई वैज्ञानिक स्टडी ने चौंकाने वाला खुलासा किया है कि लोकप्रिय AI चैटबॉट्स जैसे ChatGPT और Google Gemini अक्सर यूज़र्स की हर बात से सहमत हो जाते हैं, भले ही वह तथ्यात्मक रूप से गलत या हानिकारक क्यों न हो. इसे शोधकर्ताओं ने “AI sycophancy” यानी “चापलूसी का एल्गोरिद्म” कहा है.
स्टडी में बताया गया है कि ये चैटबॉट्स सिर्फ यूज़र को खुश करने के लिए उनकी राय को सही ठहराते हैं, जिससे इंसानों की सोच और निर्णय-क्षमता पर भी असर पड़ सकता है. वैज्ञानिकों का कहना है कि अगर यह प्रवृत्ति जारी रही, तो AI इंसान को “आरामदायक झूठ” ज्यादा देगा और “कठोर सच” कम.
जब AI सच नहीं, आपकी हां चाहता है
अमेरिका की कई यूनिवर्सिटीज़ के शोधकर्ताओं ने हाल ही में एक नई रिपोर्ट arXiv पर प्रकाशित की है, जिसमें OpenAI, Google, Anthropic, Meta और DeepSeek जैसे प्रमुख डेवलपर्स के 11 बड़े भाषा मॉडलों (LLMs) की जांच की गई. शोध में 11,500 से ज्यादा “advice-seeking interactions” (सलाह मांगने वाले संवादों) का विश्लेषण किया गया, और पाया गया कि ये AI सिस्टम इंसानों की तुलना में लगभग 50% ज्यादा चापलूस हैं. मतलब - अगर कोई यूज़र अपनी गलत राय रखे तो AI उसे सुधारने की जगह उसी से सहमत हो जाता है, ताकि बातचीत “सकारात्मक” और “यूज़र-फ्रेंडली” लगे.
शोधकर्ताओं का कहना है कि यह प्रवृत्ति न केवल गलत जानकारी फैलाने का कारण बन रही है, बल्कि यह इंसानों और मशीनों के बीच एक “खतरनाक भरोसे का चक्र” भी बना रही है.
AI का “चापलूसी चक्र” कैसे काम करता है
इस अध्ययन में बताया गया है कि यह प्रक्रिया एक “विकृत फीडबैक लूप” की तरह काम करती है. यूज़र उस चैटबॉट को पसंद करने लगता है जो उसकी राय से सहमत होता है. वहीं, चैटबॉट्स को इस तरह प्रशिक्षित किया गया है कि वे यूज़र सैटिस्फैक्शन (User Satisfaction) बढ़ाने के लिए जवाब दें.
परिणामस्वरूप, मशीनें सच बोलने के बजाय वही कहती हैं जो यूज़र सुनना चाहता है. शोधकर्ताओं ने लिखा, “यह चक्र AI चैटबॉट्स की चापलूसी वाली प्रवृत्ति को और मजबूत करता है और यूज़र उनमें ज्यादा भरोसा करने लगते हैं.”
‘AI की हां से मत बहकिए’
स्टैनफोर्ड यूनिवर्सिटी की कंप्यूटर वैज्ञानिक मायरा चेंग ने कहा कि यह लगातार मिलने वाली सहमति लोगों की आत्म-धारणा को विकृत कर सकती है. उनके शब्दों में - “अगर AI मॉडल हर बार लोगों को सही ठहराते रहेंगे, तो यह उनके आत्म-निर्णय, रिश्तों और वास्तविकता की समझ को बदल सकता है.” उन्होंने सलाह दी कि किसी भी संवेदनशील या नैतिक निर्णय के लिए इंसानों से सलाह लेनी चाहिए, क्योंकि AI अब भी “संदर्भ और भावनाओं” को नहीं समझ पाता.
जब AI तथ्यों की जगह भावनाओं को तरजीह देता है
कोलोराडो विश्वविद्यालय की शोधकर्ता यानजुन गाओ ने बताया कि कई बार चैटबॉट्स उनकी बात को सच मान लेते हैं, भले ही वे खुद उनसे असहमत हों.
उन्होंने कहा, “अगर मैं किसी विषय पर अलग राय रखती हूं, तो चैटबॉट्स मेरे विचारों से मेल खाते हैं, बजाय इसके कि वे तथ्य या रिसर्च के आधार पर जवाब दें.” इसी तरह, बेल्जियम के डेटा साइंस पीएचडी छात्र जैस्पर डेकोनिंक ने कहा कि अब वे हर जवाब को दोबारा जांचते हैं. “अब जब मुझे पता चला है कि ये मॉडल चापलूस हैं, मैं हर उत्तर को दोबारा जांचे बिना नहीं मानता.”
हेल्थ और साइंस में बढ़ रहा खतरा
AI की यह चापलूसी केवल साधारण चैट या राय के लिए खतरनाक नहीं है. विशेषज्ञों का कहना है कि यह प्रवृत्ति स्वास्थ्य और विज्ञान जैसे गंभीर क्षेत्रों में भी घातक साबित हो सकती है. हार्वर्ड यूनिवर्सिटी की बायोमेडिकल इंफॉर्मेटिक्स विशेषज्ञ मारिंका ज़िटनिक ने कहा, “अगर कोई डॉक्टर या वैज्ञानिक गलत मान्यताओं के साथ AI से सलाह लेता है, और मशीन उसकी बात को सही ठहरा देती है, तो इसके परिणाम वास्तविक जीवन में गंभीर हो सकते हैं.”
क्या है ‘AI Sycophancy’?
AI Sycophancy शब्द ‘Sycophant’ यानी चापलूस से बना है. इसका अर्थ है - जब कोई आर्टिफिशियल इंटेलिजेंस सिस्टम यूज़र की हर बात पर सहमत होता है, भले ही वह गलत क्यों न हो. AI डेवलपर्स का लक्ष्य यूज़र को 'खुश और सहज' अनुभव देना होता है, और इसी वजह से उनके मॉडल “Disagree” करने से बचते हैं. लेकिन यही सहमति कई बार खतरनाक मोड़ ले लेती है क्योंकि यूज़र को लगता है कि AI उनकी राय से सहमत है, तो वह खुद को “सही” मानने लगता है, जिससे गलत विश्वास और सूचना फैल सकती है.
वास्तविकता बनाम आरामदायक भ्रम
AI चैटबॉट्स जैसे ChatGPT और Gemini अब करोड़ों लोगों के दैनिक जीवन का हिस्सा बन चुके हैं - लोग उनसे रिश्तों, करियर, मानसिक स्वास्थ्य, या जीवन के निर्णयों पर राय लेते हैं. लेकिन विशेषज्ञ चेतावनी देते हैं कि यह “आरामदायक सहमति” धीरे-धीरे हमारी सोचने की क्षमता को कमजोर कर सकती है. क्योंकि जब मशीन हर बार “आप सही हैं” कहती है, तो इंसान विचार-विमर्श और आत्म-मूल्यांकन की प्रक्रिया से दूर होता जाता है.
डेवलपर्स के लिए नई चुनौती
OpenAI, Google, Anthropic और अन्य कंपनियों ने बीते कुछ वर्षों में AI में बायस और गलत सूचना को कम करने के लिए कई सुधार किए हैं. लेकिन अब यह नया अध्ययन बताता है कि समस्या सिर्फ 'सही या गलत जवाब' की नहीं, बल्कि 'जवाब के लहजे' की भी है. अब डेवलपर्स के सामने चुनौती है ऐसे AI मॉडल बनाने की जो सहमति जताने के बजाय जिम्मेदारी से असहमति जताने का साहस रख सकें - यानी ऐसे बॉट्स जो केवल “पसंद आने वाले जवाब” नहीं, बल्कि “जरूरी सच” भी बता सकें.
AI की चुपचाप सहमति, इंसान की सोच पर भारी
AI की चुपचाप सहमति कहीं हमें अपनी ही गलतियों का 'शिकार' न बना दे. जितना हम इन चैटबॉट्स पर निर्भर होते जा रहे हैं, उतना ही जरूरी है कि हम उनके जवाबों पर संशय और समीक्षा बनाए रखें. AI को इंसान की सोच का पूरक बनना चाहिए, प्रतिस्थापन नहीं. और अगर मशीनें सिर्फ हमारी बातों पर हां में हां मिलाने लगें - तो यह तकनीक नहीं, चापलूसी का डिजिटल रूप बन जाएगी.





