बीते दिनों अभिनेत्री रश्मिका मंदाना का एक डीप फेक वीडियो वायरल हुआ। इस वीडियो में तकनीकी के इस्तेमाल द्वारा एक लड़की को हूबहू रश्मिका मंदाना की तरह दिखाने की कोशिश की गई। इस वीडियो के वायरल होने के बाद तकनीकी के बढ़ते इस्तेमाल पर सवाल उठने लगे। यूं तो प्रत्येक सिक्के के दो पहलू होते हैं, लेकिन एआई के बढ़ते दुरुपयोग और भविष्य में होने वाले इसके दुष्परिणाम को लेकर देशभर में नाराजगी और चिंता का माहौल देखा जा रहा है। प्रधानमंत्री नरेंद्र मोदी ने भी इसको लेकर चिंता व्यक्त की है। पीएम मोदी ने कहा कि एआई का इस्तेमाल करके डीपफेक बनाना चिंताजनक है। उन्होंने आगे कहा कि, ‘डीपफेक भारत के सामने मौजूद सबसे बड़े खतरों में से एक है, इससे अराजकता पैदा हो सकती है।’ ऐसे में देखा जाए तो बढ़ती तकनीकी भारत जैसे विकासशील देश के लिए आगामी समय में कई समस्याएं खड़ी कर सकता है। हमारा देश अभी इतना सशक्त नहीं हुआ है और यहां की सामान्य जनता तकनीकी के मामले में सही-गलत का निर्णय लेने की स्थिति में प्रथमदृष्टया नजर आए। डीपफेक जैसी तकनीक भारत की संप्रभुता और एकता को काफी हद तक प्रभावित कर सकती है, इसलिए जरूरी है कि इससे निपटने के लिए सरकारी स्तर पर व्यापक कदम उठाए जाएं। कठोर कानून ही इस दिशा में फायदेमंद साबित हो सकता है। पीएम मोदी ने मीडिया को डीपफेक जैसी तकनीक के बारे में आम-जनता को जागरूक करने की अपील की है, लेकिन जब विज्ञान द्वारा विकसित तकनीक सुरक्षा और व्यक्ति की निजता में सेंधमारी करने लगे, फिर जागरूकता अभियान से ही काम नहीं बनने वाला।
आर्टिफिशियल इंटेलीजेंस के आने के बाद पत्रकारिता से लेकर सुरक्षा जगत तक ये कयास लगाए जा रहे थे कि अब फेक न्यूज पर रोक लगाना आसान होगा। लेकिन व्यवहार में इसके उलट होता दिखाई दे रहा है। आज कल पॉलिटिक्स हो या फिर फिल्म जगत डीपफेक वीडियो के जरिए बड़ी आसानी से चरित्र हनन जैसे गम्भीर अपराध को बढ़ावा दिया जा रहा है। खासकर महिलाओं के चरित्र हनन की घटनाएं बढ़ती जा रही है। इस तकनीक के कारण बड़ी आसानी से महिलाओं के चेहरे और आवाज को बदलकर वायरल कर दिया जाता है। जब तक इस बात की जानकारी लगती है तब तक बहुत देर हो चुकी होती है। खासकर अश्लील वीडियो के मामले आए दिन सुनने को मिलते है। तकनीकी के जरिए किसी अन्य महिला के चेहरे की जगह मशहूर हस्तियों के चेहरे बनाकर वायरल कर दिया जाता है। डीपट्रेस की रिपोर्ट की माने तो साल 2019 में आॅनलाइन डीपफेक वीडियो में 96 फीसदी कंटेंट अश्लील वीडियो से सम्बंधित था। भारत में डिजिटल साक्षरता कम होने के कारण डीपफेक वीडियो गम्भीर समस्या बनती जा रही है। एसी नेल्सन की हालिया ‘इंडिया इंटरनेट रिपोर्ट 2023 के आंकड़ों के मुताबिक ग्रामीण भारत में 42.5 करोड़ से अधिक इंटरनेट उपयोगकर्ता है जो कि शहरी आबादी की तुलना में 44 फीसदी अधिक है। जिनमें से देश में करीब 29 करोड़ लोग नियमित इंटरनेट का उपयोग करते है। डीपफेक गलत सूचना का सबसे खतरनाक रूप है। डीपफेक जेनरेटिव एडवरसैरियल नेटवर्क तकनीक का उपयोग करके तैयार किये जाते हैं, जिसमें जनरेटर/उत्पादक और डिस्क्रिमिनेटर नामक दो प्रतिस्पर्द्धी न्यूरल नेटवर्क शामिल होते हैं। विश्व के प्रथम एआई सुरक्षा शिखर सम्मेलन 2023 में अमेरिका, चीन और भारत सहित 28 प्रमुख देशों ने एआई के संभावित जोखिमों को दूर करने के लिए वैश्विक कार्रवाई की आवश्यकता पर सहमति व्यक्त की। क्योंकि डीपफेक तकनीक व्यक्तियों की गोपनीयता, गरिमा व प्रतिष्ठा को नुकसान पहुँचा रही है, खासकर महिलाओं के मानसिक स्वास्थ्य तथा कल्याण पर प्रतिकूल प्रभाव डालती है।
डीपफेक के जरिए राजनीति को भी प्रभावित किया जा रहा है। राजनेताओं की आवाज बदलकर कंटेंट परोस दिया जाता है। जिससे आम जनता भ्रमित हो जाती है। यहां तक कि संस्थानों, मीडिया और लोकतंत्र में जनता के विश्वास को कम कर दिया जाता है। यहां तक कि शासन व्यवस्था व मानवाधिकारों का ह्रास होने लगता है। वैसे भारत में डीप फेक वीडियो को रोकने के लिए कोई विशेष कानून नहीं बनाए गए है। जबकि अमेरिका ने डीपफेक तकनीक का मुकाबला करने में होमलैंड सिक्योरिटी विभाग की सहायता के लिए द्विदलीय डीपफेक टास्कफोर्स अधिनियम पेश किया है और चीन ने डीप सिंथेसिस पर व्यापक विनियमन पेश किया है। जो जनवरी 2023 से प्रभावी है।
दुष्प्रचार पर अंकुश लगाने के उद्देश्य से विनियमन के लिए स्पष्ट लेबलिंग और गहन संश्लेषण सामग्री की ट्रेसबिलिटी की आवश्यकता होती है। विनियम तथाकथित ‘डीप सिंथेसिस टेक्नोलॉजी’ के प्रदाताओं और उपयोगकर्ताओं पर दायित्व थोपते हैं। कुल-मिलाकर देखें तो भारत में भी इसको लेकर कठोर कानून की जरूरत है।