लोकमतसत्याग्रह/डीपफेक रोकने के लिए केंद्रीय IT मंत्रालय ने नए नियम तैयार कर लिए हैं। इसके मुताबिक, जो सोशल मीडिया प्लेटफार्म नए नियमों का उल्लंघन करेगा, उसका भारत में कारोबार रोक दिया जाएगा।
IT मंत्रालय के एक अधिकारी ने बुधवार (17 जनवरी) को बताया कि सोशल मीडिया प्लेटफॉर्म्स और अन्य स्टेकहोल्डर्स के बीच हुई दो बार मीटिंग हुई।
इसमें तय हुआ कि सोशल मीडिया प्लेटफार्म डीपफेक कंटेंट को AI के जरिए फिल्टर करने का काम करेंगे। डीपफेक कंटेंट डालने वालों पर IPC की धाराओं और IT एक्ट के तहत केस दर्ज होंगे।
ऐसे होंगे नए नियम: फेक कंटेंट जहां अपलोड होगा, उस प्लेटफॉर्म को भी जिम्मेदार मानेंगे
- डीप फेक कंटेंट मिलते ही कोई भी FIR करा सकता है। विक्टिम और उसकी तरफ से नियुक्त व्यक्ति को भी केस दर्ज कराने के अधिकार होंगे।
- सोशल मीडिया प्लेटफॉर्म यूजर्स से यह शपथ लेगा कि वह डीपफेक कंटेंट नहीं डालेगा। प्लेटफॉर्म अपने यूजर्स को इस संबंध में अलर्ट मैसेज देंगे। सहमति के बाद ही यूजर अकाउंट एक्सेस कर सकेगा।
- डीप फेक कंटेंट को 24 घंटे में हटाना होगा। जिस यूजर ने कंटेंट अपलोड किया है, उसका अकाउंट बंद कर सूचना दूसरे प्लेटफार्म का देनी होगी, ताकि आरोपी वहां अकाउंट न बना सके।
PM मोदी और सचिन तेंदुलकर भी डीपफेक के शिकार हुए
प्रधानमंत्री नरेंद्र मोदी भी डीपफेक पर चिंता जता चुके हैं। उनका एक डीपफेक वीडियो आया था। वहीं हाल ही में पूर्व क्रिकेटर सचिन तेंदुलकर का एक डीप फेक वीडियो वायरल हुआ था। इसमें उन्हें ‘स्काईवर्ड एविएटर क्वेस्ट’ गेमिंग ऐप को प्रमोट करते दिखाया गया था। सचिन ने कहा था- यह वीडियो नकली है और धोखा देने के लिए बनाया गया है।
नवंबर में रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था
पिछले साल नवंबर में एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मोर्फ किया गया था।
सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे।
हालांकि वह महिला रश्मिका नहीं बल्कि जारा पटेल नाम की एक लड़की थी, जिसके चेहरे को बदलकर रश्मिका का चेहरा लगा दिया गया था। ALT न्यूज के एक जर्नलिस्ट ने डीपफेक वीडियो वायरल होने के बाद इसका खुलासा किया था
डीपफेक होता क्या है और कैसे बनाया जाता है?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।
किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।
इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।


