- Home
- /
- राज्य
- /
- महाराष्ट्र
- /
- नागपुर
- /
- कहीं आप डीपफेक का न हो जाएं शिकार,...
सावधान: कहीं आप डीपफेक का न हो जाएं शिकार, एआई से आपकी फर्जी तस्वीरें अपराधी कर सकते हैं वायरल

- सामाजिक शर्मिंदगी का डर
- पहचानना होता है मुश्किल
Nagpur News. आजकल आर्टिफिशियल इंटेलिजेंस (एआई) का जमाना है। इसने इंटरनेट की दुनिया में तहलका मचा रखा है। युवा वर्ग इसका दीवाना हो गया है। लेकिन जरा ठहरिये, कहीं आपकी यह दीवानगी आपको किसी मुसीबत में न डाल दे। क्योंकि एआई ने जहां तकनीक को आम आदमी के करीब लाया है, वहीं अपराध की एक नई परत भी खोल दी है। एआई के सहारे अपराधी आप द्वारा अपलोड की गई तस्वीरों से नकली तस्वीरें और वीडियो तैयार कर बदनाम करने और ब्लैकमेल करने की कोशिशें कर रहे हैं। इसे तकनीकी भाषा में ‘डीपफेक’ कहा जाता है। देश के कई हिस्सों में इस तरह की घटनाओं में तेजी से इजाफा हुआ है। नागपुर में भी कुछ इससे संबंधित घटनाएं सामने आई हैं, लेकिन पुलिस के पास ऐसा कोई मामला दर्ज नहीं हुआ है।
बन रही नकली दुनिया
डीपफेक तकनीक मशीन लर्निंग और एआई एल्गोरिद्म पर आधारित होती है, जो किसी व्यक्ति के चेहरे, आवाज़ और हावभाव को डिजिटल रूप से किसी अन्य वीडियो या ऑडियो में मिला देती है। कुछ सेकंड में बनाए गए ऐसे नकली वीडियो इतने असली लगते हैं कि सामान्य व्यक्ति पहचान ही नहीं पाता कि यह फर्जी है। साइबर एक्सपर्ट्स का कहना है कि पहले जहां ऐसी तकनीक केवल प्रोफेशनल स्टूडियो तक सीमित थी, वहीं अब मुफ्त मोबाइल एप्स और वेबसाइट्स ने इसे आम लोगों की पहुंच में ला दिया है। यही वजह है कि बीते एक साल में देशभर में महिलाओं की फर्जी तस्वीरें, नेताओं के नकली बयान और सोशल मीडिया ब्लैकमेलिंग के मामलों में इजाफा हुआ है।
सामाजिक शर्मिंदगी का डर
साइबर पुलिस ने नागरिकों से अपील की है कि यदि किसी को ऐसी फर्जी सामग्री प्राप्त हो या डीपफेक के माध्यम से धमकाया जाए, तो तुरंत राष्ट्रीय साइबर हेल्पलाइन नंबर 1930 या साइबर क्राइम की वेबसाइट पर रिपोर्ट दर्ज करें। अधिकारियों का मानना है कि फिलहाल ऐसे मामले या तो रिपोर्ट नहीं किए जा रहे हैं या फिर पीड़ित लोग सामाजिक शर्मिंदगी के डर से शिकायत दर्ज नहीं करा रहे हैं।
पहचानना होता है मुश्किल
डीपफेक को पहचानना आम व्यक्ति के लिए मुश्किल होता है। अपराधी किसी भी व्यक्ति की सोशल मीडिया प्रोफाइल से तस्वीरें लेकर एआई टूल्स के जरिए उसे आपत्तिजनक वीडियो में बदल देते हैं। कई बार यह ब्लैकमेलिंग के लिए, तो कभी राजनीतिक उद्देश्यों से किया जाता है। आने वाले दो सालों में अगर नियंत्रण नहीं हुआ, तो यह सबसे गंभीर साइबर अपराध बन सकता है। अपराधी अब सिर्फ चेहरा ही नहीं, बल्कि आवाज और बोलने की लय की भी नकल करने लगे हैं। इससे टेलीफोनिक धोखाधड़ी और बैंकिंग फ्रॉड में नई चुनौती पैदा हो गई है। ऐसे में सावधान रहने की जरूरत है।
यह भी पढ़े -परमवीर चक्र विजेता सेखों की याद में दौड़े एयर फोर्स के जवान, एयर मार्शल गर्ग ने दिखाई हरी झंडी
केस 1: छात्रा की चुप्पी
धंतोली की 20 वर्षीय छात्रा की कुछ इंस्टाग्राम तस्वीरों को जोड़कर किसी ने आपत्तिजनक डीपफेक वीडियो बनाया और व्हाट्सएप पर वायरल कर दिया। इससे छात्रा को शर्मिंदगी का सामना करना पड़ा। वह महीनों तनाव में रही। माता-पिता ने समाज और प्रतिष्ठा के डर से थाने में रिपोर्ट नहीं की, उन्होंने केवल वीडियो हटवाया और बेटी का मोबाइल बंद करा दिया।
केस 2: व्यापारी की खामोशी
सिविल लाइंस के एक 40 वर्षीय व्यापारी को उसकी ही आवाज में रिकॉर्ड नकली वीडियो भेजा गया, जिसमें वह गैरकानूनी लेन-देन स्वीकार करता दिख रहा था। आरोपी ने एआई से तैयार उस वीडियो के बदले 5 लाख रुपए मांगे। परिवार ने शिकायत करने को कहा, पर व्यापारी को डर था कि प्रतिष्ठा और व्यापार पर असर पड़ेगा। उसने कुछ पैसे देकर मामला रफा-दफा कर चुप्पी साध ली। डीपफेक बनाने वाला अपराधी बच गया। ये घटनाएं नागपुर के तकनीकी ब्लैकमेल की उन अदृश्य परतों में दबी रह गईं, जिनका कोई केस दर्ज नहीं हुआ।
यह भी पढ़े -लाड़-प्यार में 50% लाडलों के दांत खराब, 15 साल तक के बच्चों के दांतों में करना पड़ रहा है रुट कैनल
कानूनी पहल और उपाय
भारत सरकार ने आईटी अधिनियम 2000 के तहत फर्जी कंटेंट फैलाने और डिजिटल रूप से किसी व्यक्ति की छवि को नुकसान पहुंचाने पर दंडनीय प्रावधान किए हैं। इसके अलावा, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने सोशल मीडिया कंपनियों को निर्देश दिए हैं कि वे एआई-जनरेटेड कंटेंट की पहचान के लिए ऑटोमेटिक फिल्टरिंग सिस्टम लागू करें।
जागरूकता ही सुरक्षा
साइबर एक्सपर्ट्स का मानना है कि ‘डिजिटल साक्षरता और जनजागृति’ ही इस अपराध से निपटने का सबसे प्रभावी उपाय है। कॉलेजों, स्कूलों और सरकारी संस्थानों में एआई उपयोग पर कार्यशालाएं आयोजित की जानी चाहिए, ताकि लोग तकनीक का जिम्मेदारी से उपयोग करें।
नि:संकोच करें शिकायत
बलराम सुतार, पुलिस निरीक्षक, साइबर क्राइम सेल के मुताबिक डीपफेक तकनीक के दुरुपयोग को लेकर जागरूकता बढ़ी है। नागपुर में अब तक इस तरह का कोई औपचारिक मामला दर्ज नहीं हुआ है। शहर में ऑनलाइन फ्रॉड, यूपीआई स्कैम और फेक लिंक शेयरिंग के मामले अधिक हैं, लेकिन डिपफेक से संबंधित शिकायतें नहीं आईं। यदि ऐसा कुछ मामला हो, तो नागरिक नि:संकोच सबसे पहले नजदीकी पुलिस थाने में एफआईआर दर्ज कराए।
Created On :   3 Nov 2025 8:23 PM IST












