डीपफेक तकनीक आज सिर्फ मनोरंजन या एडिटिंग टूल नहीं रही, यह एक खतरनाक हथियार बन चुकी है, जो आपकी ज़रा-सी लापरवाही का फायदा उठाकर आपकी पूरी जीवनभर की कमाई छीन सकती है। भारत में साइबर ठगी के तौर-तरीकों में खतरनाक बदलाव देखने को मिल रहा है। अब अपराधी सिर्फ फोन कॉल्स या फर्जी वेबसाइटों से नहीं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक तकनीक के ज़रिए लोगों को शिकार बना रहे हैं। इस तकनीक के ज़रिए वे भारत की जानी-मानी हस्तियों जैसे वित्त मंत्री निर्मला सीतारमण, उद्योगपति मुकेश अंबानी, इंफोसिस फाउंडेशन की चेयरपर्सन सुधा मूर्ति और आध्यात्मिक गुरु सद्गुरु के नकली वीडियो बनाकर लोगों से अरबों रुपये की ठगी कर रहे हैं।
कैसे तैयार होता है यह फ्रॉड?
साइबर अपराधी पहले किसी लोकप्रिय सेलेब्रिटी का वीडियो और आवाज़ का डेटा इकट्ठा करते हैं। इसके बाद AI आधारित डीपफेक टूल्स की मदद से उनका एक नकली वीडियो बनाते हैं जिसमें वे निवेश या किसी स्कीम को प्रमोट करते दिखते हैं। इन वीडियो को सोशल मीडिया या मैसेजिंग ऐप्स के ज़रिए वायरल किया जाता है। भरोसे में आए लोग लिंक पर क्लिक करते हैं और लाखों रुपये की धोखाधड़ी का शिकार बन जाते हैं।
ठगी के मामलेमुंबई के एक डॉक्टर ने मुकेश अंबानी के नाम पर चल रही एक स्कीम पर भरोसा करते हुए 7 लाख रुपये गवां दिए। हैदराबाद के डॉक्टर ने वित्त मंत्री के डीपफेक वीडियो पर भरोसा करके 20 लाख रुपये का निवेश कर दिया और साइबर ठक का शिकार हो गए। एक डीपफेक वीडियो में सद्गुरु जग्गी वासुदेवन ने निवेश के लिए लिंक दिया। एक महिला ने लिंक खोला, जहां एक व्यक्ति ने कंपनी प्रतिनिधि बनकर उसे व्हाट्सएप ग्रुप में जोड़ा लिया। वे उसे वेबसाइट्स फॉलो करने और व्यापार करने के लिए मनाते रहे। महिला ने 3.75 करोड़ रुपये निवेश कर दिए, फिर ठग गायब हो गया।
सरकारी और साइबर एजेंसियों की चिंता
रिपोर्ट्स के मुताबिक, पिछले तीन सालों में डीपफेक से जुड़े फ्रॉड मामलों में 550% की बढ़ोतरी दर्ज की गई है। सबसे चिंताजनक बात यह है कि इन मामलों में पैसे की रिकवरी दर महज 34.1% है। यानी जो पैसा गया, उसका लौटना मुश्किल है। वर्धमान ग्रुप के चेयरमैन के साथ हुई एक ठगी में 7 करोड़ की ठगी में सिर्फ 5.25 करोड़ की रिकवरी हो पाई — और यह देश की सबसे बड़ी रिकवरी मानी जा रही है।
AI ने बढ़ाई मुश्किलें
AI तकनीक के आने के बाद डीपफेक वीडियो को पहचान पाना आम लोगों के लिए लगभग नामुमकिन हो गया है। एक सर्वे में सामने आया कि 69% लोग AI जनरेटेड आवाज़ों को पहचान नहीं पाते, और सेलेब्रिटी के नाम पर चल रहे फर्जी वीडियो को असली समझकर भारी नुकसान झेलते हैं। इससे यह स्पष्ट होता है कि टेक्नोलॉजी का गलत इस्तेमाल अब आम जनता के लिए सबसे बड़ा साइबर खतरा बन चुका है।
क्या करें, कैसे बचें?
किसी भी निवेश स्कीम या लिंक पर सेलेब्रिटी की सिफारिश देखकर तुरंत विश्वास न करें।
सोशल मीडिया पर शेयर किए गए वीडियो की सच्चाई की पुष्टि जरुर करें।
संदेहास्पद लिंक या ग्रुप में शामिल होने से पहले दो बार सोचें।
किसी भी अनजान व्यक्ति के कहने पर पैसे ट्रांसफर न करें।
किसी भी व्यक्ति को अपने फोन में आए OPT को ना शेयर करे
साइबर क्राइम की शिकायत तुरंत 48 घंटे के भीतर करें ताकि रिकवरी की संभावना बनी रहे।
कैसे तैयार होता है यह फ्रॉड?
साइबर अपराधी पहले किसी लोकप्रिय सेलेब्रिटी का वीडियो और आवाज़ का डेटा इकट्ठा करते हैं। इसके बाद AI आधारित डीपफेक टूल्स की मदद से उनका एक नकली वीडियो बनाते हैं जिसमें वे निवेश या किसी स्कीम को प्रमोट करते दिखते हैं। इन वीडियो को सोशल मीडिया या मैसेजिंग ऐप्स के ज़रिए वायरल किया जाता है। भरोसे में आए लोग लिंक पर क्लिक करते हैं और लाखों रुपये की धोखाधड़ी का शिकार बन जाते हैं।
ठगी के मामलेमुंबई के एक डॉक्टर ने मुकेश अंबानी के नाम पर चल रही एक स्कीम पर भरोसा करते हुए 7 लाख रुपये गवां दिए। हैदराबाद के डॉक्टर ने वित्त मंत्री के डीपफेक वीडियो पर भरोसा करके 20 लाख रुपये का निवेश कर दिया और साइबर ठक का शिकार हो गए। एक डीपफेक वीडियो में सद्गुरु जग्गी वासुदेवन ने निवेश के लिए लिंक दिया। एक महिला ने लिंक खोला, जहां एक व्यक्ति ने कंपनी प्रतिनिधि बनकर उसे व्हाट्सएप ग्रुप में जोड़ा लिया। वे उसे वेबसाइट्स फॉलो करने और व्यापार करने के लिए मनाते रहे। महिला ने 3.75 करोड़ रुपये निवेश कर दिए, फिर ठग गायब हो गया।
सरकारी और साइबर एजेंसियों की चिंता
रिपोर्ट्स के मुताबिक, पिछले तीन सालों में डीपफेक से जुड़े फ्रॉड मामलों में 550% की बढ़ोतरी दर्ज की गई है। सबसे चिंताजनक बात यह है कि इन मामलों में पैसे की रिकवरी दर महज 34.1% है। यानी जो पैसा गया, उसका लौटना मुश्किल है। वर्धमान ग्रुप के चेयरमैन के साथ हुई एक ठगी में 7 करोड़ की ठगी में सिर्फ 5.25 करोड़ की रिकवरी हो पाई — और यह देश की सबसे बड़ी रिकवरी मानी जा रही है।
AI ने बढ़ाई मुश्किलें
AI तकनीक के आने के बाद डीपफेक वीडियो को पहचान पाना आम लोगों के लिए लगभग नामुमकिन हो गया है। एक सर्वे में सामने आया कि 69% लोग AI जनरेटेड आवाज़ों को पहचान नहीं पाते, और सेलेब्रिटी के नाम पर चल रहे फर्जी वीडियो को असली समझकर भारी नुकसान झेलते हैं। इससे यह स्पष्ट होता है कि टेक्नोलॉजी का गलत इस्तेमाल अब आम जनता के लिए सबसे बड़ा साइबर खतरा बन चुका है।
क्या करें, कैसे बचें?
किसी भी निवेश स्कीम या लिंक पर सेलेब्रिटी की सिफारिश देखकर तुरंत विश्वास न करें।
सोशल मीडिया पर शेयर किए गए वीडियो की सच्चाई की पुष्टि जरुर करें।
संदेहास्पद लिंक या ग्रुप में शामिल होने से पहले दो बार सोचें।
किसी भी अनजान व्यक्ति के कहने पर पैसे ट्रांसफर न करें।
किसी भी व्यक्ति को अपने फोन में आए OPT को ना शेयर करे
साइबर क्राइम की शिकायत तुरंत 48 घंटे के भीतर करें ताकि रिकवरी की संभावना बनी रहे।
You may also like
जगुआर और लैंड रोवर ने साइबर हमले के कारण उत्पादन रोका
नजर हटते ही उबलकर गैस` पर गिर जाता है दूध… तो नोट कर लें ये किचन हैक्स फिर नहीं गिरेगा बाहर
'पेज 3' की कास्ट 20 साल बाद फिर दिखी साथ, तारा शर्मा ने शेयर की खास झलक
भारत, अमेरिका का प्रमुख द्विपक्षीय व्यापारिक साझेदार, ट्रेड वार्ता से नए अवसर खुलेंगे : अर्थशास्त्री
पाकिस्तान के पूर्व कप्तान ने सूर्यकुमार यादव के लिए लाइव टीवी पर किया अभद्र भाषा का इस्तेमाल