AtalHind
राष्ट्रीय

आर्टिफिशियल इंटेलिजेंस के युग में डीपफेक एक बड़ी चुनौती।

आर्टिफिशियल इंटेलिजेंस के युग में डीपफेक एक बड़ी चुनौती।

डीप फेक का गलत इस्तेमाल हर क्षेत्र में होने लगा है, डीप फेक लोकतंत्र के लिये खतरा है। डीप फेक मतदाता के मन को बदल सकता है।

 

डीपफेक द्वारा उत्पन्न चुनौतियाँ सबसे पहले विश्वास और प्रतिष्ठा का क्षरण करती है। डीपफेक का इस्तेमाल गलत सूचना फैलाने, प्रतिष्ठा को नुकसान पहुंचाने और सामाजिक अशांति भड़काने के लिए किया जा सकता है। एक बार जब कोई डीपफेक वीडियो वायरल हो जाता है, तो नुकसान को रोकना मुश्किल हो सकता है, क्योंकि लोग वास्तविक और हेरफेर की गई सामग्री के बीच अंतर करने में सक्षम नहीं हो सकते हैं। व्यक्तियों और समाज के लिए खतरा अब सिर पर आकर खड़ा हो गया है। डीपफेक का इस्तेमाल साइबर बुलिंग, ब्लैकमेल और यहां तक कि चुनावों में हस्तक्षेप करने के लिए भी किया जा सकता है। इसके दुरुपयोग से व्यक्तियों और समाज को नुकसान पहुंचने की संभावना बहुत अधिक है। पता लगाने और जिम्मेदार ठहराने में कठिनाई पहले से ज्यादा बढ़ गयी है। डीपफेक का परिष्कार लगातार विकसित हो रहा है, जिससे उनका पता लगाना और उनका पता लगाना कठिन होता जा रहा है। यह कानून प्रवर्तन और सोशल मीडिया प्लेटफ़ॉर्म के लिए एक चुनौती है। कानूनी और नैतिक विचार कमजोर पड़ते दिखाई दे रहें है। डीपफेक के उद्भव ने गोपनीयता, अभिव्यक्ति की स्वतंत्रता और कृत्रिम बुद्धिमत्ता (एआई) की सीमाओं के संबंध में जटिल कानूनी और नैतिक प्रश्न खड़े कर दिए हैं।

BY         -डॉ सत्यवान सौरभ

 

 

डीपफेक ऐसे वीडियो या ऑडियो रिकॉर्डिंग हैं, जिन्हें आर्टिफिशियल इंटेलिजेंस (एआई) का उपयोग करके हेरफेर किया जाता है, ताकि यह प्रतीत हो सके कि कोई कुछ ऐसा कह रहा है या कर रहा है जो उन्होंने कभी नहीं किया। यह दूरगामी प्रभावों के साथ एक महत्वपूर्ण तकनीकी खतरे के रूप में उभरा है। कहते हैं इनफार्मेशन टेक्नोलॉजी के इस युग में डेटा ही तेल सामान है, मतलब उसका महत्त्व बहुत ज्यादा है, और बिना डेटा के कोई भी काम होना बहुत कठिन हो गया है। जैसे-जैसे डेटा का उपयोग बढ़ रहा है, उसके शोधन के तरीके भी बढ़ रहे हैं, वहीं ऐसी टेक्नोलॉजी भी आ गयी हैं जो आपके डेटा का इस्तेमाल कर कई प्रकार के हैरतअंगेज कार्य कर सकती है। ऐसी ही टेक्नोलॉजी है आर्टिफिशियल इंटेलिजेंस, जिसने तकनीकी दुनिया को हमेशा के लिए बदल डाला है। गूगल बार्ड जैसे टूल्स आश्चर्जनक जानकारियों का खजाना बन गए हैं, जो रिसर्च,एजुकेशन, प्रोडक्टिविटी को अलग स्तर पर ले गए हैं, वहीं न्यूरल नेटवर्क, डीप लर्निंग, मशीन लर्निंग ने सेल्स, मार्केटिंग, सोशल मीडिया, और एंटरटेनमेंट जैसे क्षेत्रों को बदल डाला है।

 

डीपफेक द्वारा उत्पन्न चुनौतियाँ सबसे पहले विश्वास और प्रतिष्ठा का क्षरण करती है। डीपफेक का इस्तेमाल गलत सूचना फैलाने, प्रतिष्ठा को नुकसान पहुंचाने और सामाजिक अशांति भड़काने के लिए किया जा सकता है। एक बार जब कोई डीपफेक वीडियो वायरल हो जाता है, तो नुकसान को रोकना मुश्किल हो सकता है, क्योंकि लोग वास्तविक और हेरफेर की गई सामग्री के बीच अंतर करने में सक्षम नहीं हो सकते हैं। व्यक्तियों और समाज के लिए खतरा अब सिर पर आकर खड़ा हो गया है। डीपफेक का इस्तेमाल साइबर बुलिंग, ब्लैकमेल और यहां तक कि चुनावों में हस्तक्षेप करने के लिए भी किया जा सकता है। इसके दुरुपयोग से व्यक्तियों और समाज को नुकसान पहुंचने की संभावना बहुत अधिक है। पता लगाने और जिम्मेदार ठहराने में कठिनाई पहले से ज्यादा बढ़ गयी है। डीपफेक का परिष्कार लगातार विकसित हो रहा है, जिससे उनका पता लगाना और उनका पता लगाना कठिन होता जा रहा है। यह कानून प्रवर्तन और सोशल मीडिया प्लेटफ़ॉर्म के लिए एक चुनौती है। कानूनी और नैतिक विचार कमजोर पड़ते दिखाई दे रहें है। डीपफेक के उद्भव ने गोपनीयता, अभिव्यक्ति की स्वतंत्रता और कृत्रिम बुद्धिमत्ता (एआई) की सीमाओं के संबंध में जटिल कानूनी और नैतिक प्रश्न खड़े कर दिए हैं।

 

डीप फेक का गलत इस्तेमाल हर क्षेत्र में होने लगा है, लोकतंत्र के लिये खतरा है डीप फेक। डीप फेक लोकतांत्रिक संवाद को बदलने और महत्त्वपूर्ण संस्थानों के प्रति लोगों में अविश्वास फैलाने के साथ ही लोकतंत्र को कमज़ोर करने का काम कर सकता है। डीप फेक राजनीति और लोकतंत्र के लिए सबसे बड़ा खतरा बन सकता है, क्योंकि इसमें किसी भी नेता का गलत बयान, भड़काऊ बयान का वीडियो बनाकर वायरल किया जा सकता है, जिससे देश में दंगे हो सकते हैं। डीप फेक का प्रयोग चुनावों में जातिगत द्वेष, चुनाव परिणामों की अस्वीकार्यता या अन्य प्रकार की गलत सूचनाओं के लिये किया जा सकता है, जो एक लोकतांत्रिक व्यवस्था के लिये बड़ी चुनौती बन सकता है। इस साल की स्टेट ऑफ डीपफेक रिपोर्ट के अनुसार, भारत डीपफेक के मामले में छठा सबसे संवेदनशील देश है। डीप फेक मतदाता के मन को बदल सकता है।अगर आपने चुनाव के दो दिन पहले तक किसी दल या उम्मीदवार के लिए पक्ष या विपक्ष में वोट करने के मन बना रखा है और इसी बीच उस दल के बड़े नेता या किसी उम्मीदवार का कोई आपत्तिजनक फोटो, वीडियो, या ऑडियो सोशल मीडिया पर वायरल हो जाता है तो ऐसे में मतदाता उस दल या पार्टी को अपने वोट देने के फैसले को बदल सकता है। बता दें कि ब्रिटेन के पिछले प्रधानमंत्री पद के चुनाव में लेबर पार्टी और कंज़रवेटिव पार्टी के उम्मीदवारों का एक डीप फेक वीडियो सामने आया जिसमें वे एक-दूसरे का समर्थन करते दिखाई दिये, इसी प्रकार भारत में भी 2019 के लोकसभा चुनावों में कुछ राजनेताओं के डीप फेक वीडियो सोशल मीडिया पर वायरल हुए थे जिसे बाद में हटा दिया गया।

 

भारत में डीपफेक के पीड़ितों के लिए कानूनी उपाय देखे तो सोशल मीडिया प्लेटफ़ॉर्म कानूनी रूप से साइबर अपराध से संबंधित शिकायतों को संबोधित करने और 36 घंटों के भीतर डीपफेक सामग्री को हटाने के लिए बाध्य हैं। साइबर अपराध की शिकायत करने के लिए पीड़ित राष्ट्रीय साइबर अपराध हेल्पलाइन (1930) में शिकायत दर्ज कर सकते हैं और साइबर वकील से सहायता ले सकते हैं। सूचना प्रौद्योगिकी अधिनियम, २००० की सूचना प्रौद्योगिकी अधिनियम की धारा-66 जालसाजी और झूठी सूचना के प्रसार सहित साइबर अपराध अपराधों से संबंधित है। कॉपीराइट अधिनियम, १९५७ के तहत यदि डीपफेक में कॉपीराइट सामग्री का अनधिकृत उपयोग शामिल है तो वे कॉपीराइट कानूनों का उल्लंघन कर सकते हैं। भारतीय दंड संहिता (आईपीसी) डीपफेक की प्रकृति के आधार पर मानहानि (धारा-499) और आपराधिक धमकी (धारा-506) जैसे प्रावधान लागू किए जा सकते हैं। डीपफेक से निपटने के लिए उठाए जा सकने वाले उपायों में तकनीकी समाधान सर्वोपरि है। डीपफेक का पता लगाने और प्रमाणित करने के लिए शोधकर्ता एआई-संचालित उपकरण विकसित कर रहे हैं। ये उपकरण डीपफेक सामग्री में सूक्ष्म खामियों का विश्लेषण करते हैं, जैसे चेहरे के भाव या आंखों की गतिविधियों में विसंगतियां। सरकारें और अंतर्राष्ट्रीय संगठन डीपफेक से निपटने के लिए कानूनी और नियामक ढाँचे की खोज कर रहे हैं। इसमें साइबर अपराध के एक रूप के रूप में डीपफेक को परिभाषित करना, रिपोर्टिंग तंत्र स्थापित करना और उत्पादकों और वितरकों को जवाबदेह बनाना शामिल है।

 

सार्वजनिक जागरूकता और शिक्षा के जरिये डीपफेक के प्रभाव को कम करने के लिए जनता को इसके बारे में शिक्षित करना महत्वपूर्ण है। इसमें लोगों को डीपफेक की पहचान करना, हेरफेर की क्षमता को पहचानना और ऑनलाइन सामग्री साझा करने के बारे में सतर्क रहना सिखाना शामिल है। सोशल मीडिया प्लेटफ़ॉर्म और प्रौद्योगिकी कंपनियों पर डीपफेक से निपटने की ज़िम्मेदारी है। इसमें पता लगाने वाली तकनीकों में निवेश करना, स्पष्ट नीतियां लागू करना और कानून प्रवर्तन के साथ काम करना शामिल है। डीपफेक से निपटने के लिए एआई-आधारित समाधान में चेहरे की हरकतों, त्वचा की बनावट और आवाज के पैटर्न में सूक्ष्म विसंगतियों के आधार पर डीपफेक की पहचान करने के लिए एआई मॉडल को प्रशिक्षित किया जा सकता है। सोर्स कोड वॉटरमार्किंग डिजिटल सामग्री के सोर्स कोड में अद्वितीय वॉटरमार्क-एम्बेडेड करने से डीपफेक की उत्पत्ति का पता लगाने और अपराधियों की पहचान करने में मदद मिल सकती है। एआई-संचालित तथ्य-जाँच उपकरण (फैक्ट-चेक टूल्स) उपयोगकर्ता-जनित सामग्री (यूजर-जनरेटेड कंटेंट) की प्रामाणिकता को सत्यापित करने में सोशल मीडिया प्लेटफार्मों की सहायता कर सकते हैं। मीडिया प्रमाणीकरण मानक कोएलिशन फॉर कंटेंट प्रोवेनेन्स एंड ऑथेंटिसिटी जैसे खुले तकनीकी मानक डिजिटल सामग्री की प्रामाणिकता (ऑथेंटिकेशन) स्थापित करने में मदद कर सकते हैं।

 

भारतीय चिंतन और अध्यात्म का, विश्वदृष्टि का प्रचार करने के लिए भारत को अपने स्वयं के एआई एल्गोरिदम विकसित करने और प्रशिक्षित करने की आवश्यकता है। एआई पूर्वाग्रह का मुकाबला करने का शायद यही एकमात्र तरीका है। यदि भारत विरोधी ताकतें वास्तव में अपने स्वयं के पूर्वाग्रहों को प्रचारित करने के लिए एआई का सक्रिय रूप से उपयोग कर रही हैं, तो हमें एआई का अपना संस्करण बनाने की जरूरत है जो भारत समर्थक हो। कई हित समूहों और हितधारकों द्वारा बढ़ती मध्यस्थता वाली दुनिया में, ज्ञान अब उदासीन नहीं रह सकता है। हमें एआई के निष्क्रिय उपभोक्ताओं और बड़ी तकनीकी कंपनियों की सफेदपोश कार्यबल के रूप में अपनी भूमिका से आगे बढ़ कर सोचना होगा, और लगातार विकसित हो रहे एआई विमर्श में सक्रिय खिलाड़ी बनना ही पड़ेगा।

डीपफेक हमारे डिजिटल समाज के लिए एक महत्वपूर्ण चुनौती पेश करते हैं, हालांकि वे नवाचार और सहयोग का अवसर भी पेश करते हैं। तकनीकी प्रगति, कानूनी ढाँचे और सार्वजनिक जागरूकता के संयोजन से, हम एक ऐसे भविष्य की दिशा में काम कर सकते हैं, जहाँ डीपफेक कम हानिकारक और अधिक जवाबदेह होंगे। निष्कर्षत: मुख्य रूप से एक व्यापक दृष्टिकोण विकसित करने की आवश्यकता है, जो इस उभरते खतरे के तकनीकी, कानूनी और नैतिक आयामों को संबोधित करता हो।

 

Advertisement

Related posts

पीएफआई और  आरएसएस एक जैसे संगठन ,ये लोग युवाओं को बुलाकर उन्हें शारीरिक प्रशिक्षण देते थे और उनका ‘ब्रेनवॉश’ करते है 

atalhind

Uttarakhand के ज्वलंत मुद्दों से ध्यान हटाने के लिए यूनिफॉर्म सिविल कोड का सहारा लिया गया है?

editor

लड़की प्राइवेट पार्ट में घुसेड़ी बोतल,महिला दोस्त सहित सभी आरोपी गिरफ्तार

admin

Leave a Comment

URL