फर्जी तस्वीरें और वीडियो का सामने आना या वायरल होना कोई नयी बात नहीं है. जब से तस्वीरें और फिल्म अस्तित्व में हैं, लोग धोखा देने या मनोरंजन के नाम पर जालसाजी/ छेड़छाड़ करते रहे हैं. इंटरनेट से लोगों के बड़े पैमाने पर जुड़ने और इसके उपयोग में तेजी आने के बाद से भ्रामक फोटो, वीडियो आदि में तेजी आयी है. परंतु अब फोटोशॉप जैसे एडिटिंग सॉफ्टवेयर की सहायता से केवल इमेज को बदलने या किसी वीडियो को एडिट कर उसे दूसरा रूप देने के बजाय अन्य तकनीक के जरिये नकली फोटो, वीडियो, ऑडियो आदि को सामने लाया जा रहा है. जिसके बारे में यह पता लगाना मुश्किल है कि वे असली हैं या नकली. यह सब किया जा रहा है एक तकनीक ‘डीप फेक’ के माध्यम से. इस बार इसी तकनीक से जुड़े तथ्यों की पड़ताल करते हैं इन दिनों में…
कुछ दिनों पूर्व अभिनेत्री रश्मिका मंदाना का जब एक वीडियो सोशल मीडिया पर वायरल हुआ, तब उसे लेकर दर्शकों ने कई तरह की प्रतिक्रियाएं दीं. पर सच तो यह है कि वह वीडियो रश्मिका का नहीं, बल्कि किसी और का था. जिसे डीप फेक तकनीक के माध्यम से हेरफेर कर बनाया गया था, जो बिल्कुल वास्तविक लग रहा था. इसके बाद अभिनेत्री काजोल, कैटरीना कैफ समेत कई लोगों का फेक वीडियो सामने आया. बीते कुछ समय से जाने-माने व्यक्तित्व का फर्जी वीडियो बना उसे वायरल करने का जैसे चलन चल पड़ा है. तकनीक का यह दुरुपयोग बेहद चिंतित करने वाला है. प्रधानमंत्री नरेंद्र मोदी ने इस तकनीक को लेकर चिंता भी जतायी है और मीडिया को इस संबंध में लोगों को जागरूक करने को कहा है.
डीप फेक ‘डीप लर्निंग’ और ‘फेक’ का सम्मिश्रण है. इसमें आर्टिफिशियल इंटेलिजेंस (एआइ) का प्रयोग कर किसी मीडिया फाइल (चित्र, ऑडियो व वीडियो) की नकली कॉपी तैयार की जाती है, जो वास्तविक फाइल की तरह ही दिखती है और ठीक उसी तरह बातचीत करती है या उसी तरह की आवाज निकालती है, जैसी संबंधित व्यक्ति की असल में होती है. दूसरे शब्दों में कहें, तो डीप फेक अपने सबसे सामान्य रूप में ऐसे वीडियो होते हैं जहां एक व्यक्ति के चेहरे को कंप्यूटर जनित चेहरे से बदल दिया गया होता है. ये वीडियो डिजिटल सॉफ्टवेयर, मशीन लर्निंग और फेस स्वैपिंग का उपयोग करके बनाये गये कृत्रिम वीडियो होते हैं.
Also Read: एक खतरनाक चुनौती है ‘डीप फेक’
इनमें इमेज को जोड़कर नये फुटेज तैयार किये जाते हैं, जो उन घटनाओं, बयानों या कार्यों को दर्शाते हैं जो वास्तव में कभी हुए ही नहीं थे. जेनरेटिव एडवर्सरियल नेटवर्क (जीएएन) का उपयोग कर इसे और विश्वसनीय बनाया जा सकता है. डीप फेक अन्य तरह की झूठी या भ्रामक सूचनाओं से भिन्न होते हैं, क्योंकि यहां यह पहचानना मुश्किल होता है कि वीडियो असली है या नकली.
विश्वविद्यालय के शोधकर्ताओं और स्पेशल इफेक्ट्स वाले स्टूडियो लंबे समय से वीडियो और इमेज में छेड़छाड़ करते रहे हैं. परंतु डीप फेक शब्द का जन्म 2017 में तब हुआ जब इसी नाम की एक ऑनलाइन कम्युनिटी के सदस्यों ने लोकप्रिय वेबसाइट रेडिट पर छेड़छाड़ की गयी अश्लील क्लिप पोस्ट कीं. इन वीडियो में वयस्क कलाकारों के चेहरों पर मशहूर हस्तियों के चेहरे लगा दिये गये थे- इनमें गैल गैडोट, टेलर स्विफ्ट, स्कारलेट जोहानसन समेत अन्य हस्तियां शामिल थीं. वर्ष 2019 में इस तकनीक को गंभीरता से तब लिया गया जब हैकर्स ने ब्रिटेन स्थित एक कंपनी के सीईओ की आवाज की नकल कर एक फोन रिक्वेस्ट भेजी, नतीजा 2,43,000 डॉलर का गैर-कानूनी बैंक हस्तांतरण हुआ. इसी तरह 2021 में अपराधियों ने एक जापानी कंपनी के निदेशक के आवाज की नकल कर कंपनी के ब्रांच मैनेजर से 35 मिलियन डॉलर की रकम धोखाधड़ी वाले खाते में हस्तांतरित करवा ली थी. ये उदाहरण डीप फेक के जरिये उभरते खतरे को रेखांकित करते हैं और वित्तीय समेत सभी क्षेत्रों में धोखाधड़ी से बचने के लिए उन्नत साइबर सुरक्षा उपायों को अपनाने की तत्काल आवश्यकता पर जोर देते हैं.
वर्तमान में भारत में डीप फेक के लिए विशिष्ट रूप से कोई कानून नहीं है, परंतु कई अन्य कानून हैं, जिसकी सहायता से इस साइबर अपराध से निपटा जा सकता
है. इनमें सूचना प्रौद्योगिकी अधिनियम 2000 की धारा 66ई और धारा 66डी जैसे कानूनी प्रावधानों के अतिरिक्त, भारतीय कॉपीराइट अधिनियम 1957 की धारा 51 भी शामिल है.
धारा 66ई : सूचना प्रौद्योगिकी अधिनियम 2000 की यह धारा डीप फेक के जरिये जनसंपर्क माध्यमों में किसी व्यक्ति की फोटो को कैप्चर, प्रकाशित या प्रसारित करने और उस व्यक्ति की गोपनीयता का उल्लंघन करने से संबंधित है. इस कानून के तहत इस तरह के अपराध के लिए तीन वर्ष तक की कैद या दो लाख के जुर्माने का प्रावधान है.
धारा 66डी : धारा 66डी कहती है कि जब किसी संचार उपकरणों या कंप्यूटर संसाधनों का उपयोग धोखाधड़ी करने के इरादे से किया जाता है, तो ऐसा करने वाले व्यक्ति पर मुकदमा होना चाहिए. इस प्रावधान के तहत अपराध करने पर तीन वर्ष तक की कैद और/ या एक लाख का जुर्माना लगाया जा सकता है.
भारतीय कॉपीराइट अधिनियम 1957 : इस अधिनियम की धारा 51 के तहत, किसी अन्य व्यक्ति के किसी भी कार्यों का अनधिकृत रूप से उपयोग करना, जिस पर उस व्यक्ति का विशेषाधिकार है, इस कानून का उल्लंघन माना जायेगा. इस तरह, यह कॉपीराइट के स्वामियों को कानूनी कार्रवाई करने की अनुमति देता है. डीप फेक से संबंधित विशिष्ट कानून के न होने के बावजूद, सूचना और प्रसारण मंत्रालय ने नौ जनवरी, 2023 को एक एडवाइजरी जारी की थी, जिसमें मीडिया संगठनों से छेड़छाड़ की गयी सामग्री पर लेबल लगाने और सावधानी बरतने का आग्रह किया गया था.
वैश्विक स्तर पर एआइ के जरिये हेरफेर और इससे उपजी चिंताओं को ध्यान में रखते हुए एक नवंबर, 2023 को अमेरिका, ब्रिटेन, ऑस्ट्रेलिया, चीन, ब्राजील और यूरोपीय संघ समेत 28 देशों ने ब्रिटेन में आयोजित एआइ सेफ्टी सम्मेलन में एक समझौते पर हस्ताक्षर किया. लंदन स्थित ब्लेचली पार्क में आयोजित इस सम्मेलन के कारण ही संभवत: इस समझौते को ब्लेचली घोषणा कहा जाता है. इस घोषणा के जरिये सहमति बनी की सभी देश एआइ से उपजी चुनौतियों से निपटने के लिए मिलकर काम करेंगे. अपनी तरह के इस पहले आयोजन में सभी देश इस बात पर सहमत दिखे की एआइ मानवता के लिए विनाशकारी संकट पैदा कर सकता है.
अमेरिकी इंटरनेट के अगुआ विंट सर्फ के अनुसार, एक समाज के रूप में हम उस बिंदु पर पहुंच रहे हैं जहां हमारे पास ऐसे उपकरण हैं जो खतरनाक तरीकों से गुमराह कर सकते हैं. इससे बचने के लिए उन्होंने हर किसी को क्रिटिकल थिंकिंग सीखने को कहा है. उन्होंने कहा कि हम अपने आप से पूछें कि यह सामग्री कहां से आयी? इसका उद्देश्य क्या है? क्या मैं किसी ऐसी चीज के लिए राजी होने की कोशिश कर रहा हूं जिसके लिए मुझे राजी नहीं होना चाहिए? सर्फ के अनुसार, हम जो कुछ भी देखते हैं, उसके बारे में हमें गंभीरता से सोचना चाहिए. विदित हो कि क्रिटिकल थिंकिंग किसी भी जानकारी का प्रभावी ढंग से विश्लेषण करने और निर्णय लेने की क्षमता है. इसमें हमारे अपने पूर्वाग्रहों के प्रति जागरूक होना भी शामिल है.
यह प्रश्न मन में आना उचित ही है कि क्या डीप फेक हमेशा दुर्भावनापूर्ण ही होते हैं. इसका उत्तर है बिल्कुल नहीं. कई मनोरंजक होते हैं, तो कुछ सहायक. वॉयस क्लोनिंग डीप फेक उन लोगों की आवाज को बहाल करने में मददगार हो सकता है जिन्होंने बीमारी के कारण अपनी आवाज खो दी है. इतना ही नहीं, डीप फेक वीडियो दीर्घाओं और संग्रहालयों को जीवंत बना सकते हैं. उदाहरण के लिए, फ्लोरिडा में डाली संग्रहालय में एक चित्रकार का एक ऐसा डीप फेक है जो अपनी कला का परिचय देता है और आगंतुकों के साथ सेल्फी लेता है.
मनोरंजन उद्योग के लिए इस तकनीक का उपयोग विदेशी भाषा की फिल्मों की डबिंग को बेहतर बनाने और मृत अभिनेताओं को जीवित दिखाने के लिए किया जा सकता है. डीप फेक और इसके समान दूसरी तकनीकें लंबे समय से फिल्मों में अपनायी जाती रही हैं. उदाहरण के लिए, फास्ट एंड फ्यूरियस अभिनेता पॉल वॉकर की मौत के बाद उनकी फिल्म में उनके भाई को लिया गया. परंतु डीप फेक के जरिये उनका चेहरा और आवाज हूबहू पॉल वॉकर की तरह कर दी गयी. हाल की स्टार वार्स फिल्मों में कैरी फिशर और पीटर कुशिंग की कंप्यूटर के जरिये बनायी गयी तस्वीरें दिखाई गयी हैं. ये तस्वीरें ठीक उसी तरह की हैं जैसा वे 1977 की मूल फिल्म में दिखाये गये थे. जबकि कई मार्वल फिल्मों में माइकल डगलस और रॉबर्ट डाउनी जूनियर सहित कई अभिनेताओं को डि-एजिंग तकनीक के जरिये युवा दिखाया गया है.
कि सी भी तकनीक का गलत इस्तेमाल विनाशकारी साबित हो सकता है. डीप फेक इसका सटीक उदाहरण हैं. इसका उपयोग कर किसी व्यक्ति का राजनीतिक, सामाजिक और आर्थिक जीवन बर्बाद किया जा सकता है. डीप फेक को लेकर एक आम चिंता यह है कि इसका उपयोग लोकतंत्र को अस्थिर करने या राजनीति में हस्तक्षेप करने के लिए किया जा सकता है. इसके माध्यम से किसी को बदनाम करने का प्रयास भी किया जा सकता है.
डीप फेक के इस्तेमाल से लोकतंत्र को अत्यधिक क्षति पहुंचाई जा सकती है. किसी वैसे उम्मीदवार जिसे हम नापसंद करते हैं, या अपने मनपसंद उम्मीदवार को जिताने या अन्य दल से पैसा लेकर दूसरे उम्मीदवार को जिताने के लिए लक्षित उम्मीदवार से जुड़े ऐसे वीडियो, ऑडियो क्लिप, तस्वीरें जारी की जा सकती हैं, जिसमें ऐसी बातें कही गयी हों जो देश की एकता, अखंडता और सामाजिक ताने-बाने को हानि पहुंचाती हों, या उम्मीदवार को भ्रष्ट साबित करती हों. ऐसे वीडियो लक्षित उम्मीदवार के चरित्र हनन के लिए काफी है. इस तरह चुनाव प्रक्रिया को आसानी से प्रभावित किया जा सकता है. इसके साथ ही, किसी संवैधानिक संस्था से जुड़े व्यक्ति को लेकर भ्रामक जानकारी फैलाना भी लोकतांत्रिक व्यवस्था के लिए बड़ी चुनौती साबित हो सकती है.