Spread the love

[ad_1]

Deepfake Video: सोशल मीडिया पर इस समय डीपफेक टेक्नोलॉजी को लेकर हो रही बहस छिड़ी हुई है. यह बहस एक्ट्रेस रश्मिका मंदाना के वीडियो वायरल होने के बाद शुरू हुई. हाल ही में रश्मिका मंदाना का एक वीडियो सामने आया था. वीडियो में कि लिफ्ट का दरवाजा खुलता है और एक्ट्रेस रश्मिका मंदाना हंसते हुए लिफ्ट में एंटर करती हैं. हालांकि, यह वीडियो फेक है.

इस वीडियो में रश्मिका मंदाना नहीं, बल्कि कोई और ही लड़की है.इस लड़की को डीपफेक टेक्नोलॉजी से रश्मिका मंदाना में बदल दिया गया है. इस वीडियो के वायरल होने के बाद भारत में डीपफेक से निपटने के लिए एक लीगल रेगूलेरेटरी फ्रेम वर्क बनाने की मांग खड़ी हो गई. अमिताभ बच्चन ने भी एक्ट्रेस के इस फेक वीडियो के बाद मामले में कानूनी एक्शन लेने की बात कही है.

वैसे यह पहला मौका नहीं है, जब किसी डीपफेक वीडियो सामने आया हो, इससे पहले भी कई बार इस तरह के वीडियो सामने आ चुके हैं. डीपफेक टेक्नोलॉजी की शुरुआत फोटो में जोड़तोड़ से शुरू हुई. 1860 में दक्षिणी राजनीतिज्ञ जॉन कैलहौन की शरीर पर पर अब्राहम लिंकन का सर लगा दिया गया था और ये उनकी आइकॉनिक फोटो बन गई थी.

1930 में सोवियत लीडर स्टालिन की एक फेमस तस्वीर से कम्यूनिस्ट लिडर लियोन ट्रॉट्स्की को गायब कर दिया गया था, ताकि प्रोपगैंडा खड़ा किया जा सके.

 इसके अलावा डीपफेक तकनीक से बेनिटो मुसोलिनी की तस्वरी से घोड़ा पकड़ने वाले को बाहर कर दिया गया था, ताकि किसी को ये न लगे कि मुसोलिनी घोड़ा तक नहीं संभाल सकते.

1982 में नेशनल ग्राफिक्स मैगजीन के कवर पर गॉर्डन गैलेन ने गीजा के पिरामिड की तस्वीर ली थी, जिसको मैगजीन के कवर पर लगाना था. तस्वीर को कवर पर फिट करने के लिए दोनों पिरामिड्स को काफी नजदीक दिखाया गया था. इस पर इतना बवाल मचा कि मैगजीन को माफी मांगनी पड़ी थी.

 

यही नहीं साल 2014 में भी सौविद दत्ता फोटो स्केंडल भी काफी लाइमलाइट में आया था. दरअसल, उन्होंने कोलकत्ता में ली गई अपनी एक फोटो में मौजूद औरत के फेस को मैरी एलेन मार्क (एक फोटोग्राफर) द्वारा ली गई एक फोटो से बदल दिया था.  पकड़े जाने पर उन्होंने अपनी गलती भी मानी.

क्या है डीपफेक?
साल 2017 में पहली बार डीपफेक शब्द का इस्तेमाल उन फोटो और वीडियो के लिए किया गया था, जो डीप लर्निंग टेक्निक के जरिए जेनरेट की गई थी. शुरूआत में डीपफेक का ज्यादातर इस्तेमाल पोर्नोग्राफी इमेज और वीडियो के लिए होता था. सितंबर 2019 में एआई फर्म डीपट्रेस (AI firm Deeptrace) ने इंटरनेट पर मौजूद 15,000 डीपफेक वीडियो का पता लगाया था, जिसमें 96 फीसदी वीडियो पोर्नोग्राफी से जुड़े हुए थे.

इनमें से 99 फीसदी वीडियो में फीमेल सेलिब्रेटीज के चेहरे को मोर्फ करके क्रिएट किया गया था. यानी इस टेक्नोलॉजी के जरिए औरतों को सबसे ज्यादा टार्गेट किया जाता है, लेकिन अब सवाल ये उठता है कि ये डीपफेक टेक्नोलॉजी आखिर काम कैसे करती है.

कैसे काम करती है डीपफेक तकनीक?
डीपफेक एआई आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कर किसी दूसरे शख्स की कनविंसिंग इमेज, ऑडियो और वीडियो क्रिएट करने का काम करती है. डीपफेक दो एल्गोरिदम की मदद से ये काम करता है, जिसमें पहला जेनरेटर और दूसरा डिस्क्रिमिनेटर. जेनरेटर का काम फेम कंटेंट बनाना होता है और डिस्क्रिमिनेटर का काम ये देखना होता है कि यह फेक कंटेंट कितना असली लग रहा है.

यानी जब तक फेक फोटो या वीडियो असली जैसी नहीं लगने लग जाती डिस्क्रिमिनेटर उसे ठीक करवाता रहता है. इसी जेनरेटर और डिस्क्रिमिनेटर एल्गोरिदम की जोड़ी को जनरेटिव प्रतिकूल नेटवर्क कहा जाता है. यह डीप लर्निंग का इस्तेमाल कर फेक कंटेंट जेनरेट करता है.

कैसे बनाई जाती है डीपफेक वीडियो?
डीपफेक वीडियो दो तरह से बनाई जाती हैं. पहला जिस शख्स की फेक वीडियो बनानी है,उसके वास्तविक वीडियो को लेकर उसके फेस एक्सप्रेशन और बॉडी लैंगवेज को रीड कर उसका एक ऐसा वीडियो क्रिएट कर दिया जाता है, जिससे यह लगता है कि वो शख्स खुद ही सब कर रहा है या बोल रहा है.

वहीं, दूसरा तरीका फेस स्वेप का होता है. इसमें किसी शख्स का वीडियो रिकॉर्ड कर उसके ऊपर उस सेलेब्रिटी का चेहरा लग दिया जाता है, जिसका फेक वीडियो बनाना होता है. एक्ट्रेस रश्मिका मंदाना के मामले में इसी फेस स्वेप टेक्नोलॉजी का इस्तेमाल किया गया है.

वीडियो के अलावा ऑडियो भी डीपफेक होते हैं, जिसके लिए सिस्टम किसी सेलेब्रिटी की आवाज के सेंपल से ही उसकी आवाज क्रिएट कर लेता है. 

रूस-यूक्रेन युद्ध के दौरान डीपफेक वीडियो
रूस-यूक्रेन युद्ध के दौरान टेलीग्राम चैनल पर यूक्रेन के राष्ट्रपति वलोडिमिर जेलेंस्की का एक डीपफेक वीडियो सर्कुलेट हुआ था, जिसमें वो अपनी सेना को सरेंडर करने के लिए कह रहे हैं. युद्ध की स्थिति में किसी देश का नेता अगर अपनी सेना को सरेंडर करने के लिए कह दे और वो डीपफेक एआई के जरिए बना वीडियो हो और लोग उसे सच मान लें तो किसी देश के डिफेंस के लिए वो कितना खतरनाक हो सकता है.

मार्क जुकरबर्ग का डीपफेक वीडियो
फेसबुक के फाउंडर मार्क जुकरबर्ग का भी एक डीपफेक वीडियो सामने आया था, जिसमें वह यह कहते नजर आ रहे हैं कि वह अरब के लोगों के चोरी किए डेटा को कंट्रोल करते हैं. ऐसे वीडियो से बड़े-बड़े बिजनेस रातों-रात तबाह हो सकते हैं और उनकी इंटेग्रिटी पर सवाल खड़े हो सकते है. यही नहीं इससे उस कंपनी के स्टॉक प्राइज  भी प्रभावित हो सकता है.

इलेक्शन के दौरान विरोधी पार्टियों के नेताओं के फेक वीडियो सर्कुलेट किए जाते हैं, जिससे वोटर्स को उनके खिलाफ कर दिया जाता है और इलेक्शन के परिणामों को प्रभाविता किया जाता है. अमेरिकन प्रेसिडेंट जो बाइडेन भी यही कह रहे हैं. डीपफेक के जरिए लोगों की सेंसिटिव इन्फोर्मेशन जैसे कि बैंक अकाउंट, क्रेडिट कार्ड नंबर पता कर उनके साथ बैंक फ्रॉड भी किया जा सकता है.

यही नहीं डीपफेक के जरिए किसी देश की विदेश नीति को भी प्रभावित किया जा सकता है. जैसे हाल ही में रूस के राष्ट्रपति पुतिन का एक डीपफेक वीडियो सर्कुलेट किया गया था, जिसमें वह अमेरिकन डेमोक्रेसी पर हमला कर रहे थे. 

डीपफेक का क्या प्रभाव पड़ेगा?
इतना ही नहीं डीपफेक के जरिए एक जीरो ट्रस्ट सोसायटी भी खड़ी की जा रही है, जिससे आने वाले समय में लोग डीपफेक के चंगुल में ऐसे फंस जाएंगे कि उन्हें पता ही नहीं चलेगा कि क्या सच है या क्या झूठ. जिस तरह से टेक्नोलॉजिकल एडवांसमेंट हो रही है ये पता लागाना भी मुश्किल होगा कि वीडियो असली है या नकली.

एक वक्त था जब डीपफेक वीडियो बनाने के लिए एक्सपर्ट की जरूरत होती थी, लेकिन अब  मार्केट में कई ऐप और वेबसाइट्स आ चुकी हैं, जिससे एक आम शख्स भी डीपफेक वीडियो बना सकता है.  

ये भी पढ़ें: Aditya-L1 Mission: आदित्य-एल1 के पेलोड HEL1OS ने सौर सोलर फ्लेयर्स की पहली हाई एनर्जी एक्सरे झलक की कैद

[ad_2]

Source link

Umesh Solanki

Leave a Reply

Your email address will not be published. Required fields are marked *