Loading election data...

Taylor Swift की लीक हुई डीपफेक तस्वीर पर माइक्रोसॉफ्ट के CEO ने ताेड़ी चुप्पी, कह डाली यह बड़ी बात

Microsoft CEO Satya Nadella on Taylor Swift Deepfake Photos - अमेरिकी मेगास्टार की नकली तस्वीर को हटाये जाने से पहले तक एक्स पर 4.7 करोड़ बार देखा गया था और यह पोस्ट लगभग 17 घंटे तक सोशल मीडिया प्लैटफॉर्म पर लाइव रही थी.

By Rajeev Kumar | January 29, 2024 11:03 AM
an image

Taylor Swift AI Deepfake Photo : हॉलीवुड की पॉपुलर सिंगर टेलर स्विफ्ट की डीपफेक तस्वीर (Taylor Swift Deepfake Video) सोशल मीडिया प्लैटफॉर्म एक्स (ट्विटर) पर वायरल होने के बाद से उनके फैंस में मामले को लेकर बड़ी नाराजगी है. माइक्रोसॉफ्ट के मुख्य कार्यकारी अधिकारी (CEO) सत्य नडेला ने भी AI की मदद से बनायी गई टेलर स्विफ्ट की नकली तस्वीर पर अपनी प्रतिक्रिया दी है.

आपकी जानकारी के लिए बता दें कि अमेरिकी मेगास्टार की नकली तस्वीर को हटाये जाने से पहले तक एक्स पर 4.7 करोड़ बार देखा गया था और यह पोस्ट लगभग 17 घंटे तक सोशल मीडिया प्लैटफॉर्म पर लाइव रही थी.

सत्या नडेला ने क्या कहा?

सत्या नडेला ने एक इंटरव्यू के दौरान टेलर स्विफ्ट की AI से बनी नकली तस्वीर के प्रसार को चिंताजनक और भयानक बताया है. रिपोर्ट के अनुसार, टेलर स्विफ्ट की नकली तस्वीर को एक ऐसे टेलीग्राम ग्रुप में पाया गया था, जिसके मेंबर्स नकली तस्वीरों को बनाने के लिए माइक्रोसॉफ्ट इमेज डिजाइनर का इस्तेमाल करने का सुझाव देते हैं. हालांकि, यह बता देना सही होगा कि अभी तक इस बात की कोई पुष्टि नहीं की जा सकी है कि टेलर स्विफ्ट की यह तस्वीर किस AI टूल की मदद से बनायी गई है.

Also Read: Celebrity AI Scam वाले 1,000 से अधिक वीडियो YouTube ने हटाये, Deepfake से लोगों की आंखों में झोंक रहे थे धूल

एक्स की नीतियाें पर उठे सवाल

जानकारों की मानें, तो एक्स दुनिया में अश्लील कंटेंट के लिए सबसे बड़े प्लैटफाॅर्म्स में से एक है, क्योंकि नग्नता पर इसकी नीतियां मेटा के फेसबुक या इंस्टाग्राम की तुलना में कमजोर हैं. एक्स ने एक बयान में कहा, एक्स पर गैर-सहमति वाली नग्न तस्वीरों को पोस्ट करना सख्त वर्जित है और ऐसे कंटेंट के प्रति हमारी जीरो-टॉलरेंस की नीति है. एक स्टडी में यह पाया गया है कि इंटरनेट पर मौजूद 50 प्रतिशत से अधिक डीपफेक वीडियो अश्लील प्रकृति के हैं.

रश्मिका मंदाना, काजोल, कैटरीना, आलिया भी हुईं शिकार

टेलर स्विफ्ट से पहले आलिया भट्ट, एक्ट्रेस रश्मिका मंदाना, काजोल और कैटरीना कैफ के भी डीपफेक वीडियो इंटरनेट पर सामने आ चुके हैं. आलिया भट्ट के वायरल डीपफेक वीडियो में एक्ट्रेस की तरह दिखनेवाली एक लड़की नीले रंग के फ्लोरल कोऑर्ड सेट में नजर आयी. यह लड़की कैमरे की ओर अश्लील इशारे करती दिखाई दी. रश्मिका मंदाना के वायरल डीपफेक वीडियो में एक लड़की रिवीलिंग कपड़े पहनकर लिफ्ट में प्रवेश करती दिखाई दी.

वहीं, काजोल से जुड़ी क्लिप में एक महिला अपने शरीर पर काजोल का चेहरा बनाकर कैमरे पर कपड़े बदलती नजर आयी. कैटरीना कैफ के मामले में उनकी हालिया रिलीज फिल्म ‘टाइगर 3’ से एक्ट्रेस की बदली हुई फोटो ऑनलाइन सामने आयी. जहां असल तस्वीर में बॉलीवुड स्टार को टॉवेल पहने एक स्टंटवुमन से लड़ते दिखाया गया, वहीं डीपफेक एडिटेड वर्जन में कैट एक लो-कट सफेद टॉप और मैचिंग बॉटम पहने नजर आयीं. सेलेब्स ने इसे लेकर अपनी चिंता भी जतायी है.

Also Read: Deepfake Explained: क्या होता है डीपफेक, कैसे बचें इससे और फेक वीडियो की कहां करें शिकायत?

Exit mobile version