Advertisment

News Affair में आपका हार्दिक स्वागत है — आपकी अपनी हिंदी न्यूज़ पोर्टल, जहाँ हर खबर मिलती है सही, सटीक और सबसे पहले।

हमारे साथ जुड़िए देश-दुनिया की ताज़ा ख़बरों, राजनीति, खेल, मनोरंजन, व्यापार और तकनीक की हर बड़ी अपडेट के लिए। हम हैं आपकी आवाज़, आपके सवाल और आपकी जिज्ञासा के साथ — निष्पक्ष, निर्भीक और नई सोच के साथ।

11th February 2026

ब्रेकिंग

X, YouTube, Facebook और Snapchat को लगाना होगा लेबल

काशी में होंगे 7 फेरे, IPL के बाद बजेगी शहनाई; सियासत से बचने को गेस्ट लिस्ट छोटी

पुलिस से की गाली-गलौज, बोले-10 थानों के अफसरों को जानता हूं, तुम कौन हो मुझे रोकने वाले

जनपद उपाध्यक्ष नीतेश सिंह पर 14 राउंड चलीं गोलियां; 2 घायल, 6 संदिग्ध पकड़े गए

10 ग्राम सोना ₹1,19,352 और चांदी ₹1,45,728 प्रति किलो; जानिए क्यों बढ़े दाम, निवेश करें या नहीं

डीपफेक को लेकर सख्त कानून की मांग : न्यूजीलैंड की सांसद ने संसद में दिखाई अपनी AI-जेनरेटेड न्यूड फोटो; कहा- ये केवल 5 मिनट का काम है

News Affair Team

Tue, Jun 3, 2025

इंटरनेशनल डेस्क.

न्यूजीलैंड की महिला सांसद लॉरा मैक्लर (Laura MacLellan) ने संसद में एक साहसिक कदम उठाते हुए अपनी खुद की एक AI-जेनरेटेड न्यूड फोटो दिखाई। उनका उद्देश्य था यह दिखाना कि आज के समय में डीपफेक टेक्नोलॉजी से किसी की भी अश्लील या झूठी तस्वीर बनाना कितना आसान और खतरनाक हो चुका है।

लॉरा ने बताया कि उन्होंने केवल गूगल पर एक वेबसाइट खोजी और वहां कुछ ही मिनटों में अपनी एक डीपफेक न्यूड तस्वीर तैयार कर ली। यह फोटो संसद में दिखाते हुए उन्होंने कहा,
यह मेरी न्यूड तस्वीर है, लेकिन यह असली नहीं है। इसे बनाने में मुझे पांच मिनट से भी कम समय लगा।यह घटना 14 मई को हुई, लेकिन अब यह पूरी दुनिया में चर्चा का विषय बनी हुई है।

डीपफेक का बढ़ता खतरा, महिलाएं सबसे ज्यादा निशाने पर

लॉरा ने बताया कि न्यूजीलैंड में अभी तक डीपफेक कंटेंट को नियंत्रित करने के लिए कोई सख्त कानून नहीं है। हालांकि, कुछ डिजिटल संचार नियम जरूर हैं। वह “Deepfake Digital Harm and Exploitation Bill” का समर्थन कर रही हैं, जो डिजिटल शोषण, रिवेंज पोर्न और अश्लीलता से संबंधित मौजूदा कानूनों में बदलाव लाएगा।

इस प्रस्तावित कानून के तहत:

  • बिना सहमति के डीपफेक बनाना या शेयर करना अपराध माना जाएगा।

  • पीड़ित व्यक्ति सामग्री को हटवाने और मुआवजा मांगने का हकदार होगा।

  • किसी के भी फोटो या वीडियो का बिना अनुमति प्रयोग अपराध की श्रेणी में आएगा।

90% से अधिक डीपफेक अश्लील और गैर-सहमति पर आधारित

लॉ एसोसिएशन की रिपोर्ट के अनुसार इंटरनेट पर उपलब्ध 90 से 95% डीपफेक वीडियो अश्लील और अधिकतर बिना सहमति बनाए गए होते हैं। इनमें 90% से ज्यादा में महिलाओं को निशाना बनाया जाता है।

लॉरा मैक्लर ने बताया कि उन्हें कई लोगों ने संपर्क किया है जो डीपफेक पोर्न या सेक्सटॉर्शन (Sex-tortion) का शिकार हुए हैं। यह खासकर किशोरों और युवाओं की मानसिक सेहत पर बुरा असर डाल रहा है।

भारत और अमेरिका में भी डीपफेक पर हो रही कार्रवाई

अमेरिका:
हाल ही में अमेरिका के पूर्व राष्ट्रपति डोनाल्ड ट्रम्प ने “Take It Down Act” पर हस्ताक्षर किए, जिसके अनुसार किसी की सहमति के बिना उसकी तस्वीर का उपयोग अपराध माना जाएगा। सोशल मीडिया प्लेटफॉर्म्स को ऐसे कंटेंट को 48 घंटे के भीतर हटाना अनिवार्य होगा।

भारत:
भारत सरकार ने डीपफेक कंटेंट से निपटने के लिए सख्त गाइडलाइंस तैयार की हैं:

  • शिकायत मिलते ही कोई भी व्यक्ति FIR दर्ज कर सकता है।

  • सोशल मीडिया यूजर से सहमति ली जाएगी कि वे डीपफेक कंटेंट नहीं डालेंगे।

  • 24 घंटे के भीतर ऐसा कंटेंट हटाना अनिवार्य होगा।

  • संबंधित अकाउंट को ब्लॉक कर अन्य प्लेटफॉर्म्स को भी जानकारी दी जाएगी।

भारतीय हस्तियां जो बनीं डीपफेक का शिकार

  • रश्मिका मंदाना: नवंबर 2024 में उनका डीपफेक वीडियो वायरल हुआ, जिसमें उनका चेहरा एक इन्फ्लुएंसर के शरीर पर मॉर्फ किया गया था।

  • प्रियंका चोपड़ा: दिसंबर 2023 में उनका फर्जी ब्रांड प्रमोशनल वीडियो वायरल हुआ, जिसमें उनकी आवाज और संवाद बदले गए थे।

  • आलिया भट्ट: दो बार डीपफेक का शिकार बनीं। एक वीडियो में उन्हें मेकअप करते दिखाया गया, जबकि असली क्लिप किसी और की थी।

  • अन्य पीड़ित: नारायण मूर्ति, सचिन तेंदुलकर, नोरा फतेही, विराट कोहली।

क्या होता है डीपफेक?

डीपफेक तकनीक में AI और मशीन लर्निंग का उपयोग करके किसी व्यक्ति की आवाज, चेहरा, हावभाव को दूसरे वीडियो या ऑडियो में कृत्रिम रूप से फिट किया जाता है। यह तकनीक इतनी उन्नत हो गई है कि नकली और असली में फर्क करना मुश्किल हो गया है। AI विशेषज्ञ पुनीत पांडे के अनुसार अब डीपफेक टूल्स इतने आसान हो चुके हैं कि कोई भी व्यक्ति इन्हें इस्तेमाल कर सकता है, और आवाज की नकल यानी वॉयस क्लोनिंग अब और भी खतरनाक बन चुकी है।

विज्ञापन

जरूरी खबरें

विज्ञापन