डीपफेक – भारत के लिए सबसे बड़ा खतरा, कहीं आप भी तो नहीं हो रहे डीपफेक के शिकार

जैसे जैसी आज की पीढ़ी AI की तरफ आकर्षित हो रही है उतना ही डीपफेक तकनिक लोगों की प्राइवेसी के लिए बड़ा खतरा बन रहा है क्योंकि यह आपकी प्राइवेसी का गलत उपयोग कर रहा है इस तकनीक से सिर्फ आम लोग ही नहीं बल्कि बॉलीवुड सेलिब्रिटीज और राजनेता भी प्रभावित हो रहे हैं। डीपफेक का प्रभाओ सभी पर बहुत ख़तरनाक तरीके से पढ़ रहा है पर इसमें महिलाओं को ज्यादा शिकार बनाया जा रहा है।

सेलिब्रिटीज से लेकर राजनीतिक नेता भी हैं परेशान 

डीपफेक टेक्निक से आम लोग सेलिब्रिटीज और राजनीतिक नेता भी परेशान हैं। अभिनेत्री रश्मिका मंदाना से लेकर काजोल, कैटरीना सहित अन्य अभिनेत्री का भी डीपफेक बनाया जा चूका है सिर्फ इतना ही नहीं बल्कि पीएम मोदी का भी एक डीपफेक वीडियो वायरल हुआ है जिसमें वह गरबा करते हुए नजर आए। जिस के बाद उन्होंने Deepfake को भारत के लोगों के लिए एक बड़ा खतरा बताया गया है। 

क्या है Deepfake? 

डीपफेक आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग करता है डीपफेक का इस्तेमाल अक्सर लोग गलत इरादे से करते हैं जिसमें किसी की भी तस्वीर, वीडियो या ऑडियो को गलत इरादे से मॉडरेट किया जाता है। उस व्यक्ति को बिना बताए उसकी प्राइवेसी का दुरुपयोग किया जाता है देखने में तो ऐसे वीडियो या इमेज बिल्कुल असली नजर आते हैं ऐसा लगता है जैसे कोई वास्तव में यह काम कर रहा है। डीपफेक के जरिये किसी भी इंसान की फोटो या वीडियो का इस्तेमाल करके उससे वह काम भी करवाया जा सकता है जो उसने असल में किया ही ना हो। 

Deepfake समाज में दीमक की तरह फेल रहा 

गहरे समुद्र के बढ़ते उपयोग को देखते हुए मुंबई से पुनित भसीन जो साइबर लॉ और डेटा प्रोटेक्शन प्राइवेसी के विशेषज्ञ हैं और उनका कहना है की “पहले भी लोगों की तस्वीरों को मॉर्फ किया जाता था लेकिन वो पता चल जाता था लेकिन एआई के जरिए जो डीपफेक किया जा रहा है वो इतना परफेक्ट (सटीक) होता है कि सही या ग़लत में भेद कर पाना मुश्किल होता है. ये किसी के शील का अपमान करने के लिए काफ़ी होता है”।  

डीपफेक का उपयोग ऑडियो, वीडियो और इमेज तीनों में होता है 

आर्टिफिशियल इंटेलिजेंस के माध्यम से डीपफेक का उपयोग ऑडियो वीडियो से लेकर इमेजेस तक में किया जाता है जिसके बाद यह भेद कर पाना मुश्किल होता है कि असल कौन सा है और फेक कोनसा, वही ऑडियो का भी डीपफेक किया जाता है जिसमें बड़ी हस्तियों की आवाज़ बदलने के लिए वॉयस स्किन या वॉयस क्लोन्स का इस्तेमाल किया जाता है। 

ब्लैकमेल करने के लिए किया जाता है इसका उपयोग 

अक्सर Deepfake का उपयोग साइबर अपराधियों द्वारा फिरौती या मनोरंजन के लिए किया जाता है। क्या मामले में AI विशेषज्ञ पवन दुग्गल बताते हैं की ये लोगों के अश्लील वीडियो बनाते हैं और फिर ब्लैक मेल करके फ़िरौती के लिए इसका इस्तेमाल करते हैं। 

किसी व्यक्ति की छवि को ख़राब करने के लिए सोशल मीडिया पर डाल देते हैं और इसका उपयोग ख़ासकर सेलिब्रिटीज, राजनीतिज्ञों और बड़ी हस्तियों को नुकसान करने के लिए किया जा रहा है। इसके साथ ही इसका एक और करण यह भी है कि लोग ऐसे वीडियो देखना पसंद करते हैं, इसलिए अप्राधि ऐसे वीडियो बनाते हैं ताकि उनके वीडियो पर व्यूज बड़े और उनका फ़ायदा हो। 

इसे भी पढ़ें – PM Kisan Tractor Yojana 2023: अब ट्रैक्टर खरीदने पर मिलेगी 5 लाख की सब्सिडी

Author

  • Srajan Thakur

    मेरा नाम सृजन है और मुझे लिखना काफी पसंद है। मैं एक जिज्ञासु वक्तितित्व का हूँ इसलिए मैं सम्पूर्ण विषयों के ऊपर लेख लिखने में सक्षम हूँ। में एक पूर्ण रूप से लेखक कहलाता हूँ।

Leave a Comment

Your Website