AI से फोटो-वीडियो बनाने वालों के लिए अलर्ट! सरकार लाई सख्त नियम, अब बताना होगा AI कंटेंट है या नहीं
केंद्र सरकार ने AI जेनरेटेड फोटो, वीडियो और कंटेंट को लेकर सख्त नियम नोटिफाई किए हैं. अब डिजिटल प्लेटफॉर्म्स और क्रिएटर्स को साफ बताना होगा कि कंटेंट AI से बना है या नहीं. 20 फरवरी से लागू होगा नियम.
अब AI से फोटो वीडियो और कंटेट बनाने वाले सावधान हो जाए. AI के तेजी से बढ़ते उपयोग और उससे पैदा हो रहे खतरों को देखते हुए केंद्र सरकार ने AI जेनरेटेड कंटेंट को लेकर सख्त नियम नोटिफाई कर दिए हैं. नए नियमों के तहत अब यह अनिवार्य होगा कि किसी भी डिजिटल कंटेंट के साथ साफ तौर से बताया जाए कि वह AI द्वारा तैयार किया गया है या नहीं. सरकार का कहना है कि यह कदम डीपफेक, फर्जी वीडियो, मॉर्फ्ड इमेज और भ्रामक ऑडियो जैसे खतरों पर रोक लगाने के लिए जरूरी था.
आईटी एक्ट, 2000 के तहत जारी संशोधित आईटी नियमों को गजट नोटिफिकेशन के जरिए लागू किया गया है. इनमें AI से बने डीपफेक और सिंथेटिक मीडिया को राष्ट्रीय सुरक्षा, सार्वजनिक व्यवस्था और लोकतांत्रिक प्रक्रियाओं के लिए गंभीर खतरा बताया गया है. नियमों के अनुसार सोशल मीडिया और डिजिटल प्लेटफॉर्म्स की जवाबदेही बढ़ा दी गई है और उन्हें ऐसे कंटेंट की पहचान, लेबलिंग और त्वरित हटाने की जिम्मेदारी दी गई है.
ये नए AI नियम कब से लागू होंगे?
सरकारी आदेश या किसी शिकायत के बाद अब कंटेंट हटाने की समय-सीमा भी घटा दी गई है, जबकि आपात स्थितियों में तत्काल ब्लॉकिंग का प्रावधान किया गया है. नियमों का पालन न करने पर प्लेटफॉर्म्स को मिलने वाली ‘सेफ हार्बर’ सुरक्षा खत्म हो सकती है, साथ ही कानूनी कार्रवाई और अकाउंट ब्लॉकिंग जैसे कड़े कदम भी उठाए जा सकेंगे. ये नए नियम 20 फरवरी 2026 से प्रभावी होंगे.
सोशल मीडिया प्लेटफॉर्म्स की जिम्मेदारी क्या होगी?
नए नियमों के अनुसार सोशल मीडिया और डिजिटल प्लेटफॉर्म्स को-
- AI जेनरेटेड कंटेंट की पहचान करनी होगी
- Deepfake या भ्रामक कंटेंट को लेबल करना होगा
- शिकायत मिलने पर त्वरित हटाने की कार्रवाई करनी होगी
कंटेंट हटाने की समय-सीमा क्यों घटाई गई?
सरकारी आदेश या वैध शिकायत मिलने के बाद अब कंटेंट हटाने की समय-सीमा कम कर दी गई है. आपात स्थिति में तत्काल ब्लॉकिंग का प्रावधान भी रखा गया है.
नियमों का उल्लंघन करने पर क्या कार्रवाई होगी?
अगर प्लेटफॉर्म्स या कंटेंट क्रिएटर्स नियमों का पालन नहीं करते हैं तो- उन्हें मिलने वाली Safe Harbour सुरक्षा खत्म हो सकती है. कानूनी कार्रवाई की जा सकती है. अकाउंट ब्लॉकिंग या प्लेटफॉर्म पर प्रतिबंध लगाया जा सकता है.





