लोकसभा चुनाव में नेताओं को नुकसान पहुंचा सकता है डीपफेक !

साइबर एक्सपर्ट ने इस तकनीक के गलत इस्तेमाल की जतायी आशंका

By Prabhat Khabar News Desk | April 7, 2024 11:15 PM

साइबर एक्सपर्ट ने इस तकनीक के गलत इस्तेमाल की जतायी आशंका

– रूस के राष्ट्रपति पुतिन, पूर्व क्रिकेटर सचिन तेंदुलकर व अभिनेत्री रश्मिका मंदाना हो चुके हैं डीपफेक के शिकार

विकास गुप्ता, कोलकाता.

लोकसभा चुनाव में नेताओं के लिए डीपफेक बड़ा खतरा बन सकता है. चुनाव प्रचार की बदलती तकनीक एवं तरीके को लेकर साइबर एक्सपर्ट डीपफेक के गलत इस्तेमाल पर चिंता जता रहे हैं. साइबर एक्सपर्ट दीपक कुमार ने डीपफेक से बचने के लिए कई सुझाव दिये. बता दें कि रूस के राष्ट्रपति व्लादिमीर पुतिन, पूर्व क्रिकेटर सचिन तेंदुलकर और अभिनेत्री रश्मिका मंदाना डीपफेक के शिकार हो चुके हैं.

दीपक कुमार का कहना है कि डीपफेक का निर्माण डीप लर्निंग तकनीक से किया जाता है. यही वजह है कि डीप लर्निंग और फेक शब्दों से मिलकर डीपफेक बना. डीप लर्निंग तकनीक की मदद से असली वीडियो को किसी अन्य वीडियो और फोटो के साथ बदल दिया जाता है. देखने में यह असली जैसा लगता है. यह तकनीक जनरेटिव एडवरसैरियल नेटवर्क (जीएएन) का इस्तेमाल करती है. असली वीडियो-फोटो के एल्गोरिदम और पैटर्न की नकल करती है. इसके बाद जनरेटिव एडवरसैरियल नेटवर्क की सहायता से असली जैसा दिखने वाला फर्जी वीडियो या फोटो तैयार करती है.

गलत संदेश फैलाकर किया जा सकता है भ्रमित

श्री कुमार का कहना है कि चुनावी मौसम में डीपफेक का इस्तेमाल कर आम लोगों के बीच किसी राजनेता के नाम से गलत संदेश फैलाया जा सकता है. जब तक नेताओं के डीपफेक की सच्चाई सामने आयेगी, तब तक उस नेता का काफी नुकसान हो चुका होगा. फिलहाल इस पर रोक लगाने की कोई तकनीक विकसित नहीं हुई है. डीपफेक मामले में दिक्कत यह है कि मैसेज प्रसारित करने वाले का पता लगाना पुलिस के लिए काफी मुश्किल होता है. श्री कुमार ने आशंका जतायी कि लोकसभा चुनाव के दौर में डीपफेक तकनीक की काफी चर्चा है. आर्टिफिशियल इंटेलिजेंस (एआई) तकनीक चुनाव में नुकसान पहुंचा सकती है. श्री कुमार ने लोगों से आग्रह किया कि इस तकनीक से किसी नेता या दल के बारे में गलत प्रचार किया जा सकता है. ऐसे में किसी भी ऑडियो-वीडियो या फोटो पर आंख बंद कर विश्वास न करें. इसकी जांच रिपोर्ट आने का इंतजार करें.

ऐसे करें डीपफेक की पहचान

श्री कुमार का कहना है कि मौजूदा समय में इंटरनेट में कई ऐसी वेबसाइट्स हैं, जो डीपफेक सामग्री की पहचान करती हैं. अगर किसी व्यक्ति को उनकी किसी तस्वीर या वीडियो पर संदेह है, तो वह पहले उसकी जांच जरूर करे. कई बार इन वीडियो और फोटो को गौर से देखने पर ही पता लग जाता है कि ये नकली हैं. वीडियो देखते वक्त हाथ-पैर को काफी गौर से देखें. चेहरे की भाव भंगिमा, लिपसिंग और बॉडी मूवमेंट ध्यान से देखने पर आसानी से डीपफेक वीडियो या फोटो की पहचान की जा सकती हैं. कुछ एआइ टूल्स की मदद से भी आप इसे परख सकते हैं. एआइ और नॉट वेबसाइट की मदद से आप एआइ की मदद से तैयार ऑडियो और फोटो की पहचान कर सकते हैं. हाइव मोडरेशन की मदद से भी एआइ जनरेटेड सामग्री पहचानी जा सकती है. डीपवेयर स्कैनर नामक वेबसाइट की मदद से भी फेक वीडियो-ऑडियो की जानकारी मिल सकती है. दीपक कुमार ने बताया कि डीपफेक तकनीक किसी भी व्यक्ति के निजी जीवन से जुड़े कानून का उल्लंघन है. ऐसा करनेवाले आरोपी को सख्त सजा देने का कानून में प्रावधान है. लोगों को पहले से इसे लेकर सतर्क रहने की जरूरत है. किसी भी वीडियो या भाषण या तस्वीर को देखकर तुरंत उसपर भरोसा न करें. वह डीपफेक भी हो सकता है.

Next Article

Exit mobile version