22 अक्टूबर को प्रकाशित मसौदा संशोधनों का उद्देश्य डीपफेक के बढ़ते खतरे पर नकेल कसना है। हालाँकि, रचनाकारों और अन्य उद्योग हितधारकों ने मंत्रालय द्वारा प्रस्तावित कुछ बदलावों का आह्वान किया है। पुदीना प्रस्तावों और एआई उपयोगकर्ताओं पर उनके प्रभाव को तोड़ता है।
क्या AI को विनियमित करने का भारत का प्रयास वास्तव में रचनाकारों पर अंकुश लगाएगा?
पिछले चार दिनों में, रचनाकारों ने, नीति थिंक-टैंक के माध्यम से, चिंता जताई है कि एआई द्वारा हेरफेर की गई सामग्री पर अंकुश लगाने का भारत का प्रयास पर्याप्त बारीकियों की पेशकश नहीं करता है। कानून का मसौदा, जो अब सार्वजनिक डोमेन में उपलब्ध है, एआई सामग्री बनाने और वितरित करने वाले किसी भी मंच से अनिवार्य रूप से वॉटरमार्क और अदृश्य टैग, जिन्हें ‘मेटाडेटा’ भी कहा जाता है, का उपयोग करने का आग्रह करता है, ताकि यह पता लगाया जा सके कि एआई का उपयोग कहां किया गया है।
जबकि लगभग हर कोई सैद्धांतिक रूप से इस प्रारूप से सहमत है, निर्माता प्रस्तावित 10% नियम के बारे में चिंतित हैं, जहां Meity ने सुझाव दिया है कि किसी भी AI सामग्री को सामग्री के ‘दृश्यमान सतह क्षेत्र के 10%’ पर एक अस्वीकरण लगाना होगा। इसका मतलब यह है कि 100 शब्दों के टेक्स्ट स्निपेट के लिए, कम से कम 10 शब्दों में यह खुलासा होना चाहिए कि उक्त स्निपेट एआई द्वारा तैयार किया गया था।
इसी तरह, एआई से बनाई गई छवि के लिए, उसके पूर्ण रिज़ॉल्यूशन के 10% में एक वॉटरमार्क होना चाहिए जिससे यह पता चले कि यह एआई के साथ बनाई गई थी।
एआई के साथ मूल सामग्री बनाने वाले संगीतकारों और कलाकारों ने कहा कि नियम सामग्री के एक टुकड़े के इरादे के संदर्भ में अंतर नहीं करता है, और मानव कौशल के साथ एआई का उपयोग कैसे किया जाता है। इसके अलावा, 10% अनिवार्य वॉटरमार्क किसी सामग्री के “रचनात्मक प्रभाव को नष्ट” कर सकता है, जो संभावित रूप से व्यावसायिक उद्देश्यों के लिए एआई को अपनाने को प्रभावित कर सकता है।
प्रस्तावित एआई विनियमन ढांचे से सीधे जुड़े एक वरिष्ठ अधिकारी ने कहा कि एमईआईटीवाई ने पहले ही इस प्रारंभिक ढांचे पर ध्यान दिया है, और बहुत कुछ इस पर निर्भर करेगा कि हितधारक मंत्रालय को अपने सबमिशन में क्या कहते हैं, और शीर्ष तकनीकी मंत्रालय अब से क्या निर्णय लेता है।
OpenAI, Google और अन्य जैसे AI प्रदाताओं के बारे में क्या?
ऊपर उद्धृत अधिकारी ने पुष्टि की, वे भी भारत के प्रस्तावित एआई नियमों के तहत जवाबदेह हैं। इसने चिंताओं का एक नया दौर पैदा कर दिया है- ओपनएआई, गूगल, एंथ्रोपिक और अन्य लोग मूलभूत एआई मॉडल का निर्माण करते हैं जिनका उपयोग अन्य कंपनियों द्वारा आगे के उप-मॉडल या एप्लिकेशन बनाने के लिए किया जाता है।
कोई भी प्लेटफ़ॉर्म जो एआई-जनित सामग्री को दर्शाने के लिए वॉटरमार्क का उपयोग करता है, उस सामग्री को लेबल किए जाने के जोखिम का सामना करना पड़ता है – चाहे वह सामग्री कोई भी हो।
आईटी मंत्रालय ने यह भी संज्ञान लिया है कि एआई नियमों का वर्तमान मसौदा वास्तव में हानिकारक एआई सामग्री के बीच अंतर नहीं करता है – जैसे कि एआई प्लेटफॉर्म के माध्यम से बनाई गई राजनीतिक गलत सूचना, बनाम एक हानिरहित समूह तस्वीर जहां एआई का उपयोग करके कुछ तत्वों को संशोधित किया गया है।
एआई इंजीनियरों के अनुसार, अनिवार्य एआई टैगिंग को संभालना एआई प्लेटफॉर्म के लिए चुनौतीपूर्ण हो सकता है। ऐसा इसलिए है क्योंकि कई एआई प्लेटफॉर्म पहले से ही अपने डेटा निगरानी और उपयोग के मामले में गोपनीयता संबंधी चिंताओं से निपट रहे हैं। यदि उन्हें लेबलिंग के लिए उनके माध्यम से उत्पन्न प्रत्येक सामग्री का विश्लेषण करना है, तो एआई प्रदाताओं को व्यक्तिपरक कॉल लेने वाले सामग्री मॉनिटर की भूमिका निभानी होगी – जो उद्योग हितधारकों का मानना है कि जटिल होगा।
यहां एक बड़ा मुद्दा यह भी है कि पहली बार, एआई प्लेटफार्मों को सोशल मीडिया मध्यस्थों के समान विनियमन के तहत जोड़ा जा रहा है।
वास्तव में, केंद्र कह रहा है कि ओपनएआई के चैटजीपीटी और गूगल के जेमिनी जैसे एआई प्रदाता भी मध्यस्थ हैं। यदि इस कदम को औपचारिक रूप दिया जाता है, तो इन सेवाओं के माध्यम से एआई के उपयोग की प्रकृति बदल सकती है – क्योंकि प्लेटफ़ॉर्म को गलत सूचना उत्पन्न करने वाले उपयोगकर्ताओं पर नज़र रखने और उनके खातों के खिलाफ कार्रवाई करने में और अधिक कठोर होने की आवश्यकता होगी।
क्या यह कानून उसके अनुरूप है जो यूरोप पहले ही कर चुका है?
भारत का एआई विनियमन यूरोपीय संघ के आर्टिफिशियल इंटेलिजेंस अधिनियम से बहुत छोटा है, जिसे इस क्षेत्र ने पिछले साल अगस्त से लागू करना शुरू किया था। उत्तरार्द्ध में, अध्याय IV, अधिनियम का अनुच्छेद 50 स्पष्ट करता है कि किसी भी एआई-जनित सामग्री को मेटाडेटा टैगिंग के माध्यम से सोशल मीडिया प्लेटफार्मों पर पहचाना जाना चाहिए। इस तरह, ईयू एक मॉडरेशन टीम के माध्यम से सामग्री की निगरानी करने के लिए सोशल मीडिया प्लेटफार्मों पर जिम्मेदारी डालता है – और यह आकलन करता है कि क्या कोई सामग्री इरादे में हानिरहित है, या किसी भी प्रकार की गलत सूचना और हेरफेर दिखाती है।
क्या यह सब तकनीकी रूप से संभव हो सकता है?
हाँ। Meity के एक वरिष्ठ अधिकारी ने पिछले हफ्ते कहा था कि केंद्र ने नियमों को तैयार करने से पहले ही तकनीकी फर्मों के साथ परामर्श किया है – और बाद वाले ने पहले ही विश्वास व्यक्त किया है कि तकनीकी रूप से, AI सामग्री को टैग करना सामग्री वितरित करने वाले उपयोगकर्ताओं से स्वैच्छिक प्रकटीकरण के माध्यम से या AI सामग्री उत्पन्न होने पर स्रोत पर ही संभव है।
मेटा, ओपनएआई और गूगल के वरिष्ठ अधिकारी, जो सबसे प्रमुख एआई और सोशल मीडिया प्लेटफॉर्म इंस्टाग्राम, चैटजीपीटी और यूट्यूब चलाते हैं, ने कहा है कि वे वर्तमान में एआई के उपयोग पर इन नियमों के प्रभाव का मूल्यांकन कर रहे हैं। उपर्युक्त सभी तकनीकी कंपनियाँ उपयोगकर्ताओं के बीच एआई की वृद्धि पर भारी मात्रा में पूंजी का दांव लगा रही हैं। इस नोट पर, एआई मॉडरेशन को सही करना, उनके व्यवसाय के विकास के लिए भी महत्वपूर्ण होगा।
क्या उपयोगकर्ताओं को AI का उपयोग करने पर दंड का सामना करना पड़ेगा?
जबकि एआई-जनित सामग्री को टैग करने और पहचानने की जिम्मेदारी प्लेटफार्मों पर होगी, उपयोगकर्ताओं को स्वेच्छा से खुलासा करना होगा कि क्या वे एआई के साथ उत्पन्न या परिवर्तित की गई किसी भी सामग्री को साझा कर रहे हैं। हालांकि दंड प्रत्यक्ष नहीं हैं, सोशल मीडिया प्लेटफार्मों से अपेक्षा की जाती है कि वे अपने संबंधित सामुदायिक दिशानिर्देशों में एआई उपयोग नियमों को शामिल करें – उपयोगकर्ताओं को स्पष्ट करें कि क्या कानूनी है और क्या नहीं।
परिणामस्वरूप, एआई सामग्री साझा करने वाले उपयोगकर्ताओं को ‘डीपफेक’ के रूप में पहचाना जाता है, या ऐसी सामग्री जो एआई का उपयोग करके किसी तथ्य को वैकल्पिक संस्करण में बदल देती है, उन्हें ऐसा करने के लिए शुरू में एक मंच द्वारा चेतावनी दी जा सकती है।
बार-बार उल्लंघन करने वाले जिन लोगों को कई सामग्री हटाने के आदेश या सोशल मीडिया प्लेटफ़ॉर्म से चेतावनियों का सामना करना पड़ता है, उन्हें कड़ी कार्रवाई का सामना करना पड़ सकता है – जैसे कि किसी प्लेटफ़ॉर्म से प्रतिबंधित किया जाना, या और भी बहुत कुछ। हालाँकि, भारत में AI नियम, फिलहाल, उन उपयोगकर्ताओं के लिए विशिष्ट दंडात्मक उपाय निर्धारित नहीं करते हैं जो बार-बार भ्रामक AI सामग्री का प्रचार करते हैं।
एआई कानून कैसे लागू किया जाएगा?
एआई-संचालित डीपफेक के प्रसार को रोकने के लिए नियम बनाने के साथ-साथ, आईटी मंत्रालय ने पिछले बुधवार को भारत में सोशल मीडिया टेकडाउन तंत्र में एक संशोधन को भी अधिसूचित किया। 1 नवंबर से, केवल केंद्र में संयुक्त सचिव और उससे ऊपर के रैंक के अधिकारियों, या पुलिस बलों में उप महानिरीक्षक और उससे ऊपर के अधिकारियों को ही सोशल मीडिया प्लेटफॉर्म पर किसी भी प्रकार की सामग्री के खिलाफ निष्कासन आदेश जारी करने की अनुमति होगी।
इसके अलावा, ऊपर उद्धृत अधिकारी ने कहा कि नियम किसी सामग्री को साझा करने से पहले सोशल मीडिया प्लेटफॉर्म पर अनिवार्य स्वैच्छिक प्रकटीकरण के रूप में काम करेंगे। यदि किसी सामग्री की रिपोर्ट की जाती है, तो सोशल मीडिया मध्यस्थों के लिए मौजूदा विनियमन के आधार पर सामग्री को हटाया जा सकता है।
अधिकारी ने कहा कि केंद्र इस तंत्र की प्रभावशीलता की मासिक आधार पर समीक्षा भी करेगा, क्योंकि आवश्यकतानुसार कानून में बदलाव की गुंजाइश होगी- क्योंकि एआई एक उभरता हुआ क्षेत्र है।
सुप्रीम कोर्ट के वरिष्ठ वकील और साइबर सुरक्षा वकालत मंच के संस्थापक एनएस नप्पिनई ने कहा, “एआई डीपफेक प्रसार, प्रभाव और नुकसान, चाहे वह व्यक्तिगत या राष्ट्रीय सुरक्षा के लिए हो, अब एक महत्वपूर्ण पैमाने पर पहुंच गया है, जो केंद्र के लिए अधिक मजबूत और स्टैंडअलोन एआई कानूनों पर विचार करने के लिए पर्याप्त है। उदाहरण के लिए आपराधिक कानून निवारक के रूप में कार्य करते हैं और केवल सजा और विशिष्टता के लिए नहीं होते हैं और एआई विशिष्ट आपराधिक प्रावधानों की उपलब्धता नुकसान से निपटने के लिए अधिक प्रभावी हो सकती है।” साइबर साथी.
यह भी पढ़ें: मिंट एक्सप्लेनर | एआई डीपफेक हर जगह हैं: बॉलीवुड की लड़ाई का ऑनलाइन प्लेटफॉर्म के लिए क्या मतलब है



