Header Ads Widget

Responsive Advertisement

Deepfake डराने लगा है, रश्मिका-काजोल सहित कई हो रहे हैं शिकार

अभी हाल ही में साउथ सनसनी रश्मिका मंदाना के एक वीडियो को Deepfake यानि उसमें हेरफरे कर दिखाये जाने के बाद मचा बवाल थमा नहीं था कि काजोल के ऐसे ही एक Deepfake वीडियो ने हंगामा मचाया। केंद्र सरकार तो पहले ही हरकत में आ गई थी लेकिन अब तो प्रधानमंत्री नरेंद्र मोदी ने भी सार्वजनिक मंच से ये कह दिया कि Deepfake बहुत बड़ी चुनौती है और लोगों को AI के साथ Deepfake के बारे में भी शिक्षित करने की जरूरत है।

Deepfake

अभी कुछ दिनों पहले की ही बात है जब रश्मिका मंदाना का एक वीडियो आया जिसमें वो एक लिफ्ट जा रही थी। इस वीडियो में उनका लिफ्ट में जाते वक्त जिस तरह के हावभाव व पहनावा था उसके वायरल होने के कारण इसे सोशल मीडिया के एक प्लेटफॉर्म पर तो 2.4 मिलियन से अधिक बार देखा गया। लेकिन वह डीपफेक वीडियो था । वह रश्मिका नहीं ब्रिटीश इंडियन लडकी थी।



    क्या हुआ था काजोल के साथ 


    अफसोस की बात है कि यह कोई अकेली घटना नहीं है, क्योंकि हाल के वर्षों में विभिन्न क्षेत्रों की कई हस्तियां इसी तरह के फर्जी वीडियो का शिकार बनी हैं। कुछ दिनों पहले ही काजोल का एडिटेड वीडियो सामने आया जिसे इंफ्लूएंसर रोसी ब्रीन के वीडियो पर डीपफेक किया गया था। डीपफेक टेक्नोलॉजी की मदद से रोसी के चेहरे को काजोल के चेहरे से बदल दिया गया और दिखाया गया कि काजोल कैमरे के सामने कपड़े बदल रही हैं। ऐसा ही कुछ कटरीना कैफ के एक वीडियो के साथ भी किया गया था। एक वीडियो में तो पीएम को महिलाओं के साथ गरबा करते हुए डीपफेक किया गया।

    लोगों को डरा रहा है Deepfake


    लगातार बढ़ती घटनाओं से यह ययबहस भी छिड़ गई है कि इस तरह के वीडियो बनाने वालों के साथ किस तरह की कार्रवाई की जानी चाहिये। सरकार इसको लेकर बहुत गंभीर हो गई है। लोग इस तकनीक से बेहद डरे हुए हैं कि न जाने कब उनका कोई वीडियो Deepfake तकनीक के जरिये सोशल मीडिया पर वायरल कर दिया जाय।

    Deepfake है क्या


    Deepfake तकनीक एआई के लगातार विकसित हो रहे क्षेत्र के निगेटिव पहलुओं में से एक है। यह तकनीक साइबर अपराधियों को न केवल किसी और की नकल करने के लिए अपनी आवाज बदलने में सक्षम बनाती है, बल्कि उन्हें वास्तविक दिखाने के लिए वीडियो में हेरफेर भी कर देती है। Deepfake एक प्रकार का सिंथेटिक मीडिया है जिसमें एआई का उपयोग करके मौजूदा इमेज या वीडियो में एक व्यक्ति को किसी और की इमेज से बदल दिया जाता है। डीपफेक धोखा देने की उच्च क्षमता वाले दृश्य और ऑडियो कंटेंट में हेरफेर करने या उत्पन्न करने के लिए मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस जैसी शक्तिशाली तकनीकों का लाभ उठाता है।


    डीपफेक की पहचान अक्सर अप्राकृतिक चेहरे के भावों या हरकतों से की जा सकती है, जैसे बहुत बार या पर्याप्त रूप से पलकें झपकाना या बहुत सख्त या झटकेदार हरकतें। आंखें इस बात का अच्छा संकेतक हैं कि कोई वीडियो असली है या नकली। डीपफेक में अक्सर धुंधली या फोकसहीन आंखें होती हैं, या ऐसी आंखें जो व्यक्ति के सिर की गतिविधियों से मेल नहीं खातीं।

    कड़ी कार्रवाई हो 


    पिछले दिनों 'डीपफेक' वीडियो के लगातार बढ़ रहे प्रकोप के बाद केंद्रीय मंत्री राजीव चंद्रशेखर ने कहा था कि गलत सूचनाओं के इन खतरनाक और हानिकारक तरीकों से सोशल मीडिया के प्लेटफार्मों को सख्ती से निपटने की जरूरत है। यह प्लेटफ़ॉर्म के लिए एक कानूनी दायित्व है: सुनिश्चित करें कि किसी भी उपयोगकर्ता द्वारा कोई गलत सूचना पोस्ट न की जाए और यह सुनिश्चित करें कि जब किसी उपयोगकर्ता या सरकार द्वारा रिपोर्ट की जाए, तो गलत सूचना को 36 घंटों में हटा दिया जाए। यदि प्लेटफ़ॉर्म इसका अनुपालन नहीं करते हैं, तो नियम 7 लागू होगा और आईपीसी के प्रावधानों के तहत पीड़ित व्यक्ति द्वारा प्लेटफ़ॉर्म को अदालत में ले जाया जा सकता है।

    एक टिप्पणी भेजें

    0 टिप्पणियाँ