डीपफेक को लेकर सख्त कानून की मांग : न्यूजीलैंड की सांसद ने संसद में दिखाई अपनी AI-जेनरेटेड न्यूड फोटो; कहा- ये केवल 5 मिनट का काम है
इंटरनेशनल डेस्क.
न्यूजीलैंड की महिला सांसद लॉरा मैक्लर (Laura MacLellan) ने संसद में एक साहसिक कदम उठाते हुए अपनी खुद की एक AI-जेनरेटेड न्यूड फोटो दिखाई। उनका उद्देश्य था यह दिखाना कि आज के समय में डीपफेक टेक्नोलॉजी से किसी की भी अश्लील या झूठी तस्वीर बनाना कितना आसान और खतरनाक हो चुका है।
लॉरा ने बताया कि उन्होंने केवल गूगल पर एक वेबसाइट खोजी और वहां कुछ ही मिनटों में अपनी एक डीपफेक न्यूड तस्वीर तैयार कर ली। यह फोटो संसद में दिखाते हुए उन्होंने कहा,
“यह मेरी न्यूड तस्वीर है, लेकिन यह असली नहीं है। इसे बनाने में मुझे पांच मिनट से भी कम समय लगा।” यह घटना 14 मई को हुई, लेकिन अब यह पूरी दुनिया में चर्चा का विषय बनी हुई है।

डीपफेक का बढ़ता खतरा, महिलाएं सबसे ज्यादा निशाने पर
लॉरा ने बताया कि न्यूजीलैंड में अभी तक डीपफेक कंटेंट को नियंत्रित करने के लिए कोई सख्त कानून नहीं है। हालांकि, कुछ डिजिटल संचार नियम जरूर हैं। वह “Deepfake Digital Harm and Exploitation Bill” का समर्थन कर रही हैं, जो डिजिटल शोषण, रिवेंज पोर्न और अश्लीलता से संबंधित मौजूदा कानूनों में बदलाव लाएगा।
इस प्रस्तावित कानून के तहत:
बिना सहमति के डीपफेक बनाना या शेयर करना अपराध माना जाएगा।
पीड़ित व्यक्ति सामग्री को हटवाने और मुआवजा मांगने का हकदार होगा।
किसी के भी फोटो या वीडियो का बिना अनुमति प्रयोग अपराध की श्रेणी में आएगा।
90% से अधिक डीपफेक अश्लील और गैर-सहमति पर आधारित
लॉ एसोसिएशन की रिपोर्ट के अनुसार इंटरनेट पर उपलब्ध 90 से 95% डीपफेक वीडियो अश्लील और अधिकतर बिना सहमति बनाए गए होते हैं। इनमें 90% से ज्यादा में महिलाओं को निशाना बनाया जाता है।
लॉरा मैक्लर ने बताया कि उन्हें कई लोगों ने संपर्क किया है जो डीपफेक पोर्न या सेक्सटॉर्शन (Sex-tortion) का शिकार हुए हैं। यह खासकर किशोरों और युवाओं की मानसिक सेहत पर बुरा असर डाल रहा है।
भारत और अमेरिका में भी डीपफेक पर हो रही कार्रवाई
अमेरिका:
हाल ही में अमेरिका के पूर्व राष्ट्रपति डोनाल्ड ट्रम्प ने “Take It Down Act” पर हस्ताक्षर किए, जिसके अनुसार किसी की सहमति के बिना उसकी तस्वीर का उपयोग अपराध माना जाएगा। सोशल मीडिया प्लेटफॉर्म्स को ऐसे कंटेंट को 48 घंटे के भीतर हटाना अनिवार्य होगा।
भारत:
भारत सरकार ने डीपफेक कंटेंट से निपटने के लिए सख्त गाइडलाइंस तैयार की हैं:
शिकायत मिलते ही कोई भी व्यक्ति FIR दर्ज कर सकता है।
सोशल मीडिया यूजर से सहमति ली जाएगी कि वे डीपफेक कंटेंट नहीं डालेंगे।
24 घंटे के भीतर ऐसा कंटेंट हटाना अनिवार्य होगा।
संबंधित अकाउंट को ब्लॉक कर अन्य प्लेटफॉर्म्स को भी जानकारी दी जाएगी।
भारतीय हस्तियां जो बनीं डीपफेक का शिकार
रश्मिका मंदाना: नवंबर 2024 में उनका डीपफेक वीडियो वायरल हुआ, जिसमें उनका चेहरा एक इन्फ्लुएंसर के शरीर पर मॉर्फ किया गया था।
प्रियंका चोपड़ा: दिसंबर 2023 में उनका फर्जी ब्रांड प्रमोशनल वीडियो वायरल हुआ, जिसमें उनकी आवाज और संवाद बदले गए थे।
आलिया भट्ट: दो बार डीपफेक का शिकार बनीं। एक वीडियो में उन्हें मेकअप करते दिखाया गया, जबकि असली क्लिप किसी और की थी।
अन्य पीड़ित: नारायण मूर्ति, सचिन तेंदुलकर, नोरा फतेही, विराट कोहली।
क्या होता है डीपफेक?
डीपफेक तकनीक में AI और मशीन लर्निंग का उपयोग करके किसी व्यक्ति की आवाज, चेहरा, हावभाव को दूसरे वीडियो या ऑडियो में कृत्रिम रूप से फिट किया जाता है। यह तकनीक इतनी उन्नत हो गई है कि नकली और असली में फर्क करना मुश्किल हो गया है। AI विशेषज्ञ पुनीत पांडे के अनुसार अब डीपफेक टूल्स इतने आसान हो चुके हैं कि कोई भी व्यक्ति इन्हें इस्तेमाल कर सकता है, और आवाज की नकल यानी वॉयस क्लोनिंग अब और भी खतरनाक बन चुकी है।
विज्ञापन
जरूरी खबरें
विज्ञापन