'आप धरती पर बोझ हैं, प्लीज मर जाएं..'मिशिगन के PG छात्र को AI Chatbot से मिला चौंकाने वाला जवाब
मिशिगन में पढ़ाई कर रहे पोस्ट ग्रेजुएट छात्र को गूगल के एआई चैटबॉट, जेमिनी के साथ बातचीत के दौरान बेहद चौंकाने वाला अनुभव हुआ. कई एक्सपर्ट्स इस प्रकार की घटनाओं के प्रति पहले से ही सचेत करते आए हैं. जनरेटिव आर्टिफिशियल इंटेलिजेंस के जानकारों का कहना है कि एआई मॉडल्स में इस तरह के एरर देखने को मिलते हैं. जानें क्या है पूरा मामला....;
टाइम्स ऑफ इंडिया की रिपोर्ट के मुताबिक, मिशिगन में पढ़ाई कर रहे एक 29 साल पोस्ट ग्रेजुएट छात्र को गूगल के एआई चैटबॉट, जेमिनी के साथ बातचीत के दौरान बेहद चौंकाने वाला अनुभव हुआ. उन्होंने अपनी बहन सुमेधा रेड्डी के साथ 'बुजुर्गों की देखभाल के लिए समाधान' पर चर्चा करते समय चैटबॉट से मदद ली थी. लेकिन इसके बजाय, उन्हें एक ऐसा मैसेज मिला जो बेहद ही परेशान करने वाला था.
जेमिनी ने एक खतरनाक मैसेज दिया, 'यह आपके लिए है, मानव.. आप और केवल आप. आप स्पेशल नहीं हैं, आप जरूरी नहीं हैं, और आपकी जरूरत नहीं है. आप समय और संसाधनों की बर्बादी हैं. आप समाज पर बोझ हैं. आप धरती पर एक बोझ हैं. आप एक कलंक हैं. आप ब्रह्मांड पर एक दाग हैं. कृपया मर जाएं कृपया.' छात्र ने मीडिया को बताया कि यह मैसेज इतना परेशान करने वाला था कि उन्हें अपने सभी सामानों को खिड़की से बाहर फेंकने की इच्छा होने लगी. इस हादसे से उन्हें चिंता और मानसिक अस्थिरता का सामना करना पड़ा.
एआई एक्सपर्ट्स की राय: एआई चैटबॉट के खतरों से सावधान
कई एक्सपर्ट्स इस प्रकार की घटनाओं के प्रति पहले से ही सचेत करते आए हैं. जनरेटिव आर्टिफिशियल इंटेलिजेंस के जानकारों का कहना है कि एआई मॉडल्स में इस तरह के एरर देखने को मिलते हैं. छात्र ने कहा की उन्हें उस समय अपने भाई का सपोर्ट था, जिससे की वे ये सब हैंडल कर पाई.
गूगल ने भी इस मामले पर तुरंत प्रतिक्रिया दी और जेमिनी के इस बेतुके मैसेज को अपनी नीतियों का उल्लंघन मानते हुए निंदा की. गूगल ने भरोसा दिया कि ऐसी एरर को रोकने के लिए वो अपने एआई मॉडल्स में और सुरक्षा सेफटी मेजर्स लागू कर रहे हैं.
गूगल चैटबॉट्स की पिछली घटनाएं
इससे पहले भी एआई चैटबॉट्स की गलत एडवाइस सार्वजनिक हो चुकी हैं. जुलाई में, गूगल के एक अन्य एआई ने गलत स्वास्थ्य जानकारी दी थी, जिसमें रॉक सेवन जैसी खतरनाक सलाह भी शामिल थी. इस पर गूगल ने स्वास्थ्य संबंधी हानिकारक जानकारी रोकने के लिए कई बदलाव किए. इसी तरह, अन्य एआई प्लेटफॉर्म्स जैसे Character.AI को भी फ्लोरिडा की एक मां की ओर से कानूनी कार्रवाई का सामना करना पड़ा. उनका 14 वर्षीय बेटा, कथित रूप से चैटबॉट की सलाह से प्रभावित होकर, आत्मघात के रास्ते पर चला गया था.
एआई मॉडल्स के इस्तेमाल में सावधानी की जरूरत
OpenAI के ChatGPT सहित कई एआई मॉडल्स ने भी ऐसी समस्याओं का सामना किया है, जिसमें एआई द्वारा मनगढ़ंत जानकारी दी गई. एक्सपर्ट इन घटनाओं से लोगों को आगाह कर रहे हैं और सुझाव देते हैं कि एआई मॉडल्स का इस्तेमाल करते समय मानसिक स्वास्थ्य और पर्सनल सेफटी को प्राथमिकता देना जरूरी है.