डीप फेक तकनीक क्या है और भारत में इसे लेकर क्या है नियम? जानिए विस्तार से

कुछ दिनों पूर्व अभिनेत्री रश्मिका मंदाना का जब एक वीडियो सोशल मीडिया पर वायरल हुआ, तब उसे लेकर दर्शकों ने कई तरह की प्रतिक्रियाएं दीं. पर सच तो यह है कि वह वीडियो रश्मिका का नहीं, बल्कि किसी और का था.

By Prabhat Khabar News Desk | November 28, 2023 3:57 PM

फर्जी तस्वीरें और वीडियो का सामने आना या वायरल होना कोई नयी बात नहीं है. जब से तस्वीरें और फिल्म अस्तित्व में हैं, लोग धोखा देने या मनोरंजन के नाम पर जालसाजी/ छेड़छाड़ करते रहे हैं. इंटरनेट से लोगों के बड़े पैमाने पर जुड़ने और इसके उपयोग में तेजी आने के बाद से भ्रामक फोटो, वीडियो आदि में तेजी आयी है. परंतु अब फोटोशॉप जैसे एडिटिंग सॉफ्टवेयर की सहायता से केवल इमेज को बदलने या किसी वीडियो को एडिट कर उसे दूसरा रूप देने के बजाय अन्य तकनीक के जरिये नकली फोटो, वीडियो, ऑडियो आदि को सामने लाया जा रहा है. जिसके बारे में यह पता लगाना मुश्किल है कि वे असली हैं या नकली. यह सब किया जा रहा है एक तकनीक ‘डीप फेक’ के माध्यम से. इस बार इसी तकनीक से जुड़े तथ्यों की पड़ताल करते हैं इन दिनों में…

कुछ दिनों पूर्व अभिनेत्री रश्मिका मंदाना का जब एक वीडियो सोशल मीडिया पर वायरल हुआ, तब उसे लेकर दर्शकों ने कई तरह की प्रतिक्रियाएं दीं. पर सच तो यह है कि वह वीडियो रश्मिका का नहीं, बल्कि किसी और का था. जिसे डीप फेक तकनीक के माध्यम से हेरफेर कर बनाया गया था, जो बिल्कुल वास्तविक लग रहा था. इसके बाद अभिनेत्री काजोल, कैटरीना कैफ समेत कई लोगों का फेक वीडियो सामने आया. बीते कुछ समय से जाने-माने व्यक्तित्व का फर्जी वीडियो बना उसे वायरल करने का जैसे चलन चल पड़ा है. तकनीक का यह दुरुपयोग बेहद चिंतित करने वाला है. प्रधानमंत्री नरेंद्र मोदी ने इस तकनीक को लेकर चिंता भी जतायी है और मीडिया को इस संबंध में लोगों को जागरूक करने को कहा है.

क्या है डीप फेक

डीप फेक ‘डीप लर्निंग’ और ‘फेक’ का सम्मिश्रण है. इसमें आर्टिफिशियल इंटेलिजेंस (एआइ) का प्रयोग कर किसी मीडिया फाइल (चित्र, ऑडियो व वीडियो) की नकली कॉपी तैयार की जाती है, जो वास्तविक फाइल की तरह ही दिखती है और ठीक उसी तरह बातचीत करती है या उसी तरह की आवाज निकालती है, जैसी संबंधित व्यक्ति की असल में होती है. दूसरे शब्दों में कहें, तो डीप फेक अपने सबसे सामान्य रूप में ऐसे वीडियो होते हैं जहां एक व्यक्ति के चेहरे को कंप्यूटर जनित चेहरे से बदल दिया गया होता है. ये वीडियो डिजिटल सॉफ्टवेयर, मशीन लर्निंग और फेस स्वैपिंग का उपयोग करके बनाये गये कृत्रिम वीडियो होते हैं.

Also Read: एक खतरनाक चुनौती है ‘डीप फेक’

इनमें इमेज को जोड़कर नये फुटेज तैयार किये जाते हैं, जो उन घटनाओं, बयानों या कार्यों को दर्शाते हैं जो वास्तव में कभी हुए ही नहीं थे. जेनरेटिव एडवर्सरियल नेटवर्क (जीएएन) का उपयोग कर इसे और विश्वसनीय बनाया जा सकता है. डीप फेक अन्य तरह की झूठी या भ्रामक सूचनाओं से भिन्न होते हैं, क्योंकि यहां यह पहचानना मुश्किल होता है कि वीडियो असली है या नकली.

ऐसे आया यह शब्द अस्तित्व में

विश्वविद्यालय के शोधकर्ताओं और स्पेशल इफेक्ट्स वाले स्टूडियो लंबे समय से वीडियो और इमेज में छेड़छाड़ करते रहे हैं. परंतु डीप फेक शब्द का जन्म 2017 में तब हुआ जब इसी नाम की एक ऑनलाइन कम्युनिटी के सदस्यों ने लोकप्रिय वेबसाइट रेडिट पर छेड़छाड़ की गयी अश्लील क्लिप पोस्ट कीं. इन वीडियो में वयस्क कलाकारों के चेहरों पर मशहूर हस्तियों के चेहरे लगा दिये गये थे- इनमें गैल गैडोट, टेलर स्विफ्ट, स्कारलेट जोहानसन समेत अन्य हस्तियां शामिल थीं. वर्ष 2019 में इस तकनीक को गंभीरता से तब लिया गया जब हैकर्स ने ब्रिटेन स्थित एक कंपनी के सीईओ की आवाज की नकल कर एक फोन रिक्वेस्ट भेजी, नतीजा 2,43,000 डॉलर का गैर-कानूनी बैंक हस्तांतरण हुआ. इसी तरह 2021 में अपराधियों ने एक जापानी कंपनी के निदेशक के आवाज की नकल कर कंपनी के ब्रांच मैनेजर से 35 मिलियन डॉलर की रकम धोखाधड़ी वाले खाते में हस्तांतरित करवा ली थी. ये उदाहरण डीप फेक के जरिये उभरते खतरे को रेखांकित करते हैं और वित्तीय समेत सभी क्षेत्रों में धोखाधड़ी से बचने के लिए उन्नत साइबर सुरक्षा उपायों को अपनाने की तत्काल आवश्यकता पर जोर देते हैं.

भारत में इस तकनीक को लेकर क्या हैं कानून

वर्तमान में भारत में डीप फेक के लिए विशिष्ट रूप से कोई कानून नहीं है, परंतु कई अन्य कानून हैं, जिसकी सहायता से इस साइबर अपराध से निपटा जा सकता

है. इनमें सूचना प्रौद्योगिकी अधिनियम 2000 की धारा 66ई और धारा 66डी जैसे कानूनी प्रावधानों के अतिरिक्त, भारतीय कॉपीराइट अधिनियम 1957 की धारा 51 भी शामिल है.

धारा 66ई : सूचना प्रौद्योगिकी अधिनियम 2000 की यह धारा डीप फेक के जरिये जनसंपर्क माध्यमों में किसी व्यक्ति की फोटो को कैप्चर, प्रकाशित या प्रसारित करने और उस व्यक्ति की गोपनीयता का उल्लंघन करने से संबंधित है. इस कानून के तहत इस तरह के अपराध के लिए तीन वर्ष तक की कैद या दो लाख के जुर्माने का प्रावधान है.

धारा 66डी : धारा 66डी कहती है कि जब किसी संचार उपकरणों या कंप्यूटर संसाधनों का उपयोग धोखाधड़ी करने के इरादे से किया जाता है, तो ऐसा करने वाले व्यक्ति पर मुकदमा होना चाहिए. इस प्रावधान के तहत अपराध करने पर तीन वर्ष तक की कैद और/ या एक लाख का जुर्माना लगाया जा सकता है.

भारतीय कॉपीराइट अधिनियम 1957 : इस अधिनियम की धारा 51 के तहत, किसी अन्य व्यक्ति के किसी भी कार्यों का अनधिकृत रूप से उपयोग करना, जिस पर उस व्यक्ति का विशेषाधिकार है, इस कानून का उल्लंघन माना जायेगा. इस तरह, यह कॉपीराइट के स्वामियों को कानूनी कार्रवाई करने की अनुमति देता है. डीप फेक से संबंधित विशिष्ट कानून के न होने के बावजूद, सूचना और प्रसारण मंत्रालय ने नौ जनवरी, 2023 को एक एडवाइजरी जारी की थी, जिसमें मीडिया संगठनों से छेड़छाड़ की गयी सामग्री पर लेबल लगाने और सावधानी बरतने का आग्रह किया गया था.

क्या है ब्लेचली घोषणा

वैश्विक स्तर पर एआइ के जरिये हेरफेर और इससे उपजी चिंताओं को ध्यान में रखते हुए एक नवंबर, 2023 को अमेरिका, ब्रिटेन, ऑस्ट्रेलिया, चीन, ब्राजील और यूरोपीय संघ समेत 28 देशों ने ब्रिटेन में आयोजित एआइ सेफ्टी सम्मेलन में एक समझौते पर हस्ताक्षर किया. लंदन स्थित ब्लेचली पार्क में आयोजित इस सम्मेलन के कारण ही संभवत: इस समझौते को ब्लेचली घोषणा कहा जाता है. इस घोषणा के जरिये सहमति बनी की सभी देश एआइ से उपजी चुनौतियों से निपटने के लिए मिलकर काम करेंगे. अपनी तरह के इस पहले आयोजन में सभी देश इस बात पर सहमत दिखे की एआइ मानवता के लिए विनाशकारी संकट पैदा कर सकता है.

क्या कहते हैं विशेषज्ञ

अमेरिकी इंटरनेट के अगुआ विंट सर्फ के अनुसार, एक समाज के रूप में हम उस बिंदु पर पहुंच रहे हैं जहां हमारे पास ऐसे उपकरण हैं जो खतरनाक तरीकों से गुमराह कर सकते हैं. इससे बचने के लिए उन्होंने हर किसी को क्रिटिकल थिंकिंग सीखने को कहा है. उन्होंने कहा कि हम अपने आप से पूछें कि यह सामग्री कहां से आयी? इसका उद्देश्य क्या है? क्या मैं किसी ऐसी चीज के लिए राजी होने की कोशिश कर रहा हूं जिसके लिए मुझे राजी नहीं होना चाहिए? सर्फ के अनुसार, हम जो कुछ भी देखते हैं, उसके बारे में हमें गंभीरता से सोचना चाहिए. विदित हो कि क्रिटिकल थिंकिंग किसी भी जानकारी का प्रभावी ढंग से विश्लेषण करने और निर्णय लेने की क्षमता है. इसमें हमारे अपने पूर्वाग्रहों के प्रति जागरूक होना भी शामिल है.

कई कार्यों में सहायक हो सकती है तकनीक

यह प्रश्न मन में आना उचित ही है कि क्या डीप फेक हमेशा दुर्भावनापूर्ण ही होते हैं. इसका उत्तर है बिल्कुल नहीं. कई मनोरंजक होते हैं, तो कुछ सहायक. वॉयस क्लोनिंग डीप फेक उन लोगों की आवाज को बहाल करने में मददगार हो सकता है जिन्होंने बीमारी के कारण अपनी आवाज खो दी है. इतना ही नहीं, डीप फेक वीडियो दीर्घाओं और संग्रहालयों को जीवंत बना सकते हैं. उदाहरण के लिए, फ्लोरिडा में डाली संग्रहालय में एक चित्रकार का एक ऐसा डीप फेक है जो अपनी कला का परिचय देता है और आगंतुकों के साथ सेल्फी लेता है.

मनोरंजन उद्योग में भी होता है इस्तेमाल

मनोरंजन उद्योग के लिए इस तकनीक का उपयोग विदेशी भाषा की फिल्मों की डबिंग को बेहतर बनाने और मृत अभिनेताओं को जीवित दिखाने के लिए किया जा सकता है. डीप फेक और इसके समान दूसरी तकनीकें लंबे समय से फिल्मों में अपनायी जाती रही हैं. उदाहरण के लिए, फास्ट एंड फ्यूरियस अभिनेता पॉल वॉकर की मौत के बाद उनकी फिल्म में उनके भाई को लिया गया. परंतु डीप फेक के जरिये उनका चेहरा और आवाज हूबहू पॉल वॉकर की तरह कर दी गयी. हाल की स्टार वार्स फिल्मों में कैरी फिशर और पीटर कुशिंग की कंप्यूटर के जरिये बनायी गयी तस्वीरें दिखाई गयी हैं. ये तस्वीरें ठीक उसी तरह की हैं जैसा वे 1977 की मूल फिल्म में दिखाये गये थे. जबकि कई मार्वल फिल्मों में माइकल डगलस और रॉबर्ट डाउनी जूनियर सहित कई अभिनेताओं को डि-एजिंग तकनीक के जरिये युवा दिखाया गया है.

विनाशकारी हो सकता है तकनीक का गलत इस्तेमाल

कि सी भी तकनीक का गलत इस्तेमाल विनाशकारी साबित हो सकता है. डीप फेक इसका सटीक उदाहरण हैं. इसका उपयोग कर किसी व्यक्ति का राजनीतिक, सामाजिक और आर्थिक जीवन बर्बाद किया जा सकता है. डीप फेक को लेकर एक आम चिंता यह है कि इसका उपयोग लोकतंत्र को अस्थिर करने या राजनीति में हस्तक्षेप करने के लिए किया जा सकता है. इसके माध्यम से किसी को बदनाम करने का प्रयास भी किया जा सकता है.

इस तरह पहुंच सकती है लोकतंत्र को क्षति

डीप फेक के इस्तेमाल से लोकतंत्र को अत्यधिक क्षति पहुंचाई जा सकती है. किसी वैसे उम्मीदवार जिसे हम नापसंद करते हैं, या अपने मनपसंद उम्मीदवार को जिताने या अन्य दल से पैसा लेकर दूसरे उम्मीदवार को जिताने के लिए लक्षित उम्मीदवार से जुड़े ऐसे वीडियो, ऑडियो क्लिप, तस्वीरें जारी की जा सकती हैं, जिसमें ऐसी बातें कही गयी हों जो देश की एकता, अखंडता और सामाजिक ताने-बाने को हानि पहुंचाती हों, या उम्मीदवार को भ्रष्ट साबित करती हों. ऐसे वीडियो लक्षित उम्मीदवार के चरित्र हनन के लिए काफी है. इस तरह चुनाव प्रक्रिया को आसानी से प्रभावित किया जा सकता है. इसके साथ ही, किसी संवैधानिक संस्था से जुड़े व्यक्ति को लेकर भ्रामक जानकारी फैलाना भी लोकतांत्रिक व्यवस्था के लिए बड़ी चुनौती साबित हो सकती है.

Next Article

Exit mobile version