रश्मिका मदांना का एक वीडियो वायरल हुआ जिसमें रश्मिका को लिफ्ट में आते हुए देखा और बाद में पता चला कि यह वीडियो डीप फेक का मामला है वीडियो में चेहरा रश्मिका का और लेकिन असल में यह वीडियो और किसी लेडी का है AI के सहारे रश्मिका का चेहरा उस लेडी के चेहरे पर लगाया गया है इस पर रश्मिका का भी रिएक्शन आ गया है रश्मिका के वायरल वीडियो की सच्चाई “अभिषेक” नाम के एक यूजर ने उजागर की है और अभिषेक की पोस्ट को अमिताभ बच्चन ने भी शेयर कर दिया।
सोशल मीडिया पर मामले ने जोर पकड़ा तो रश्मिका ने भी अपना पक्ष रखा और इस वीडियो पर दुख जताते हुए आलोचना की और उन्होंने लिखा –
“इसे शेयर करते हुए बहुत दुख हो रहा है मुझे, ऑनलाइन फैलाए जा रहे मेरे डीपफेक वीडियो के बारे में बात करनी पढ़ रही है ईमानदारी से कहूं, तो ऐसा कुछ न केवल मेरे लिए बल्कि हम सभी के लिए बहुत डरावना है क्योंकि जिस तरह से टेक्नोलॉजी का मिसयूज किया जा रहा है उसे हम सभी को नुकसान की आशंका है रश्मिका ने आगे कहा आज एक महिला होने और एक्ट्रेस होने के नाते मैं अपने परिवार और शुभचिंतकों का शुक्रगुजार करती हूं जो मेरी प्रोटेक्शन और सपोर्ट सिस्टम है लेकिन अगर यही चीज है मेरे साथ स्कूल या कॉलेज में हुई होती मैं कल्पना भी नहीं कर सकती कि इसे कैसे निपटती! इससे पहले की हम में से और ज्यादा लोग इसे यानी (डीपफेक) से प्रभावित हो हमें बतौर कम्युनिटी इस पर जल्दी से जल्दी ध्यान देने की जरूरत है अपने इस पोस्ट में रश्मिका ने साइबर पुलिस और महाराष्ट्र पुलिस को भी टैग किया।”
अब देखना यह है कि आगे इस वीडियो पर क्या कार्रवाई होगी जैसे कि हमने बताया कि यह मामला अभिषेक नमक यूजर के कारण सामने आया अभिषेक जर्नलिस्ट है और जो ऑल्ट न्यूज़ के लिए काम करते हैं अभिषेक ने रश्मिका वाला फेक वीडियो पोस्ट करके लगभग चेतावनी के सुर में कहा “भारत में डीपफेक से निपटने के लिए एक लीगल और रेगुलेटरी ढांचे की जल्द से जल्द जरूरत है अभिषेक ने ओरिजिनल वीडियो के बारे में बताते हुए लिखा की ओरिजिनल वीडियो एक ब्रिटिश इंडियन जरा पटेल का है उनके इंस्टाग्राम पर 415k फॉलोअवर्स है उन्होंने इंस्टाग्राम पर यह वीडियो 9 अक्टूबर को अपलोड किया था. और साथ ही अमिताभ बच्चन ने भी उसे व्यक्ति पर केस करने की बात कही है जिसने डीपफेक वीडियो बनाई है।
क्या है डीपफेक/AI
आपने अक्सर सोशल मीडिया पर किसी फेमस पर्सनालिटी एक्टर या एक्ट्रेस या पॉलिटिकल व्यक्ति उनकी पर्सनालिटी से डिसमैच वीडियो वायरल होते देखा होगा। उस वीडियो को देखकर कई लोग तो उसे सच ही मान लेते हैं लेकिन उसे ध्यान से देखने पर पता चलता है कि यह फेक है AI और डीपफेक से किसी दूसरे व्यक्ति का चेहरा किसी और पर लगा सकते हैं और इससे पता भी नहीं चलता कि सच कौन सा है और फेक कौन सा है
जिसे पहचानना बहुत मुश्किल है।
कैसे रखे अपने आप को सुरक्षित ?
आपको बता दे की डीपफेक वीडियो बनाने के लिए किसी की भी पांच या उससे अधिक तस्वीरें की जरूरत होती है। फिर आर्टिफिशियल इंटेलिजेंस इस तस्वीरों को स्टडी करके इन्हें सॉफ्टवेयर की शक्ल में स्टोर कर लेता है ऐसे में आप एक काम यह कर सकते हैं कि सोशल मीडिया से अपनी फोटो को न डालें या फिर उन्हें पब्लिक से हटकर प्राइवेट कर दे। क्यों फेमस होने के चकर में हम फस सकते है क्योंकि अब ऐसे टूल्स आ गए है की कोई कुछ पहचान ही नई सकता। इस तरह से आपके फोटो का गलत इस्तेमाल होने से बचाया जा सकता है।
जारा पटेल ?
अगर आपको बताएं जारा पटेल के बारे में तो ये एक ब्रिटिश इंडियन है और यह इंस्टाग्राम पर काफी एक्टिव रहती है इनका इंस्टाग्राम पर 415K फॉलोअवर्स है और यह अक्सर अपनी वीडियो इंस्टाग्राम पर डालती रहती है और सुर्खियां बटोरती हैं। यह अपने आप को फुल टाइटल डाटा इंजीनियरिंग बोलती है कई इंटरव्यूज में इन्होंने ऐसा ही बोला।
अभिषेक जर्नलिस्ट ने बताया कि इन्होंने अपनी वीडियो 9 अक्टूबर को अपलोड की थी जिसमें दिखाया जा रहा है कि यह जिम आउटफिट में लिफ्ट का दरवाजा बंद होते ही अंदर आती दिखाई दे रही है।