डीपफेक टेक्नोलॉजी का अनावरण |
लोकप्रिय दक्षिण भारतीय अभिनेत्री रश्मिका मंदाना का एक डीपफेक वीडियो हाल ही में इंटरनेट पर सामने आया है जिसने हेरफेर किए गए वीडियो के पीछे तेजी से विकसित हो रही तकनीक के बारे में चिंताएं बढ़ा दी हैं और चर्चा शुरू कर दी है। क्लिप जिसमें सुश्री मंदाना को एक लिफ्ट में प्रवेश करते हुए दिखाया गया है ने शुरू में कई दर्शकों को आश्चर्यचकित कर दिया क्योंकि इसे वास्तविकता से मिलता-जुलता बनाया गया है। हालाँकि एक्स (पूर्व में ट्विटर) जैसे सोशल मीडिया प्लेटफॉर्म पर साथी कलाकारों और उपयोगकर्ताओं ने तेजी से बताया कि वीडियो को डिजिटल रूप से हेरफेर किया गया है।
डीपफेक
वीडियो ने मनोरंजन उद्योग
और उससे परे स्तब्ध कर दिया जिसने
प्रसिद्ध अभिनेता अमिताभ बच्चन का ध्यान आकर्षित
किया जिन्होंने इस मुद्दे के
समाधान के लिए कानूनी
कार्रवाई का आह्वान किया।
केंद्रीय मंत्री राजीव चन्द्रशेखर ने भी वीडियो
पर संज्ञान लेते हुए इसके निहितार्थ पर चिंता व्यक्त
की है.
इस
डीपफेक वीडियो को इस हद
तक हेरफेर किया गया है कि इसे
रश्मिका मंदाना के वास्तविक फुटेज
से अलग करना बेहद चुनौतीपूर्ण हो जाता है।
डीपफेक को
समझना
डीपफेक
21वीं सदी का एक उत्पाद
है जिसे अक्सर वीडियो सामग्री के लिए फ़ोटोशॉप
के समकक्ष बताया जाता है। ये रचनाएँ विश्वसनीय
नकली सामग्री उत्पन्न करने के लिए कृत्रिम
बुद्धिमत्ता के एक रूप
का उपयोग करती हैं जिसे गहन शिक्षण के रूप में
जाना जाता है।
रश्मिका
मंदाना डीपफेक के मामले में
मौजूदा स्रोत सामग्री का उपयोग किया
गया था और उसका
चेहरा डिजिटल रूप से ब्रिटिश-भारतीय
महिला ज़ारा पटेल के साथ बदल
दिया गया था। ये वीडियो चेहरों
की अदला-बदली तक सीमित नहीं
हैं; उनका उपयोग पूरी तरह से मौलिक सामग्री
तैयार करने के लिए भी
किया जा सकता है
जहां व्यक्ति कुछ ऐसा कहते या करते हुए
दिखाई देते हैं जो उन्होंने कभी
नहीं किया।
डीपफेक का
निर्माण
डीपफेक
वीडियो डीप लर्निंग एल्गोरिदम का उपयोग करने
वाली मशीनों द्वारा निर्मित किए जाते हैं। ये मशीनें एआई
एल्गोरिदम का उपयोग करके
हजारों चेहरे की छवियों का
विश्लेषण करती हैं जिन्हें एनकोडर कहा जाता है ताकि साझा
सामान्य विशेषताओं को पहचाना जा
सके और उन्हें उनके
आवश्यक घटकों में कम किया जा
सके, जिससे छवियों को प्रभावी ढंग
से संपीड़ित किया जा सके। इसके
बाद एनकोडर लक्ष्य छवि को मूल स्रोत
पर ओवरले करता है। एक डिकोडर एल्गोरिथ्म
फिर भावों और अभिविन्यास के
साथ चेहरे का पुनर्निर्माण करता
है। एक ठोस परिणाम
देने के लिए वीडियो
के प्रत्येक फ्रेम के लिए इस
प्रक्रिया को दोहराया जाना
चाहिए।
डीपफेक के
विविध
अनुप्रयोग
जबकि
डीपफेक वीडियो अक्सर स्पष्ट सामग्री से जुड़े होते
हैं उन्हें राजनीति के क्षेत्र में
भी अनुप्रयोग मिला है। चुनावों के दौरान नेताओं
के बयानों या वादों को
ग़लत बताने के लिए हेरफेर
किए गए वीडियो प्रसारित
किए जाते हैं। उदाहरण के लिए पूर्व
अमेरिकी राष्ट्रपति बराक ओबामा को एक डीपफेक
वीडियो में डोनाल्ड ट्रम्प के बारे में
अपमानजनक टिप्पणी करते हुए दिखाया गया था और मेटा
सीईओ मार्क जुकरबर्ग "अरबों लोगों के चुराए गए
डेटा पर पूर्ण नियंत्रण"
होने का दावा करते
दिखाई दिए।
डीपफेक
सामग्री का प्रसार चिंताजनक
है। एआई फर्म डीपट्रेस ने सितंबर 2019 में
ऑनलाइन 15,000 डीपफेक वीडियो की पहचान की
जो केवल नौ महीनों में
लगभग दोगुनी वृद्धि का प्रतिनिधित्व करता
है। बोस्टन विश्वविद्यालय में कानून के प्रोफेसर डेनिएल
सिट्रोन जैसे विशेषज्ञों ने चिंता जताई
है जिन्होंने इस बात पर
जोर दिया है कि महिलाओं
के खिलाफ डीपफेक तकनीक को हथियार बनाया
जा रहा है।
वीडियो से
परे:
डीपफेक
टेक्नोलॉजी
की
बहुमुखी
प्रतिभा
डीपफेक
तकनीक केवल वीडियो तक ही सीमित
नहीं है; यह शुरू से
ही पूरी तरह से काल्पनिक तस्वीरें
भी बना सकता है। साइबर अपराधियों ने नकली प्रोफाइल
बनाने के लिए इस
क्षमता का फायदा उठाया
है जैसे लिंक्डइन पर ब्लूमबर्ग के
एक गैर-मौजूद पत्रकार "मैसी किंसले" और "केटी जोन्स" जिन्होंने सेंटर फॉर स्ट्रैटेजिक एंड इंटरनेशनल स्टडीज में काम करने का झूठा दावा
किया था।
डीपफेक के
विविध
निर्माता
डीपफेक
के पीछे की तकनीक किसी
विशेष समूह या उद्योग तक
ही सीमित नहीं है। इसका उपयोग शैक्षणिक और औद्योगिक शोधकर्ताओं
से लेकर शौकिया उत्साही लोगों, दृश्य प्रभाव स्टूडियो और यहां तक
कि वयस्क मनोरंजन उद्योग तक व्यक्तियों और
संस्थाओं की एक विस्तृत
श्रृंखला द्वारा हेरफेर किए गए वीडियो बनाने
के लिए किया जाता है। डीपफेक टूल और तकनीकों की
व्यापक पहुंच ने विभिन्न क्षेत्रों
में उनके प्रसार को बढ़ावा दिया
है।
डीपफेक
तकनीक का उद्भव डिजिटल
युग में एक महत्वपूर्ण चुनौती
पेश करता है जो डिजिटल
क्षेत्र में दृश्य सामग्री की प्रामाणिकता और
विश्वसनीयता पर सवाल उठाता
है। इस प्रौद्योगिकी के
परिणामों और संभावित दुरुपयोग
को संबोधित करने के प्रयास जारी
हैं।