डीपफेक का खतरा: बांग्लादेश में महिलाओं को बनाया जा रहा निशाना, सामाजिक बहिष्कार है असली मकसद
सारांश
Key Takeaways
- बांग्लादेश में AI डीपफेक तकनीक का इस्तेमाल महिलाओं को सामाजिक रूप से बर्बाद करने के हथियार के तौर पर हो रहा है।
- 89 प्रतिशत बांग्लादेशी महिला सोशल मीडिया यूजर्स कम से कम एक बार ऑनलाइन हिंसा का शिकार हो चुकी हैं।
- राजशाही विश्वविद्यालय की एक छात्रा को डीपफेक वीडियो वायरल होने के बाद कैंपस और पढ़ाई छोड़ने पर मजबूर किया गया।
- पूर्व सरकारी सलाहकार सैयदा रिजवाना हसन को 2025 की शुरुआत में कुख्यात अकाउंट केमिकल अली ने डॉक्टर्ड तस्वीर के जरिए निशाना बनाया।
- एक पीड़ित महिला ने AI-एडिटेड वीडियो परिवार को भेजे जाने के बाद अपनी जान दे दी।
- बांग्लादेश मानवाधिकार संगठन वॉइस की रिपोर्ट के अनुसार यह हमले महिलाओं को सार्वजनिक जीवन से पूरी तरह बाहर करने के लिए समन्वित तरीके से किए जा रहे हैं।
ढाका, 25 अप्रैल (राष्ट्र प्रेस)। बांग्लादेश में डीपफेक तकनीक का दुरुपयोग एक भयावह रूप लेता जा रहा है, जहां आर्टिफिशियल इंटेलिजेंस (AI) की मदद से महिलाओं के चेहरे आपत्तिजनक सामग्री पर लगाकर उन्हें सामाजिक रूप से बर्बाद करने की कोशिश की जा रही है। यह सिलसिला केवल व्यक्तिगत प्रतिशोध तक सीमित नहीं है बल्कि यह एक सुनियोजित डिजिटल हथियार बन चुका है, जिसका इस्तेमाल उन महिलाओं को चुप कराने के लिए किया जा रहा है जो सार्वजनिक जीवन में सक्रिय हैं। बांग्लादेशी अखबार डेली सन की रिपोर्ट के अनुसार, 89 प्रतिशत महिला सोशल मीडिया यूजर्स ने कम से कम एक बार ऑनलाइन हिंसा का सामना किया है।
डीपफेक से कैसे होता है सामाजिक विनाश
AI-जनित डीपफेक कंटेंट का सबसे घातक पहलू यह है कि यह न केवल पीड़ित को, बल्कि उसके पूरे परिवार को तबाह कर देता है। फर्जी वीडियो और एडिटेड तस्वीरें परिवार के सदस्यों, दोस्तों, सहकर्मियों और नियोक्ताओं तक पहुंचाई जाती हैं, जिससे पीड़ित की सामाजिक साख पूरी तरह नष्ट हो जाती है।
रिपोर्ट में बताया गया कि अपराधी बांग्लादेशी सामाजिक ढांचे को भली-भांति समझते हैं। पारिवारिक सम्मान, सामुदायिक निर्णय और डिजिटल शर्म का ऐसा संयोजन तैयार किया जाता है कि पीड़ित के लिए सामान्य जीवन जीना असंभव हो जाता है। कई मामलों में पीड़ित अपनी जान तक गंवा देते हैं।
पीड़ितों की दर्दनाक कहानियां
रिपोर्ट में दर्ज सबसे भयावह मामले में एक महिला ने अपनी जान ले ली। उसका AI-एडिटेड वीडियो जानबूझकर उसके परिवार को भेजा गया था। रिपोर्ट के अनुसार उसकी मौत कोई तकनीकी दुर्घटना नहीं थी बल्कि यह तकनीक के सुनियोजित दुरुपयोग का नतीजा थी।
एक अन्य मामले में राजशाही विश्वविद्यालय की छात्रा जिसे रिपोर्ट में रिया (काल्पनिक नाम) कहा गया, का चेहरा अश्लील सामग्री पर लगाकर छात्र नेटवर्क में फैलाया गया। उस पर हर छात्र संगठन से इस्तीफा देने का दबाव बनाया गया। उसकी मां ने उसे पढ़ाई और कैंपस छोड़ने को कहा और मीडिया का ध्यान जाने के डर से वह चुप रही।
बांग्लादेश के पर्यावरण मंत्रालय की पूर्व सलाहकार सैयदा रिजवाना हसन को 2025 की शुरुआत में निशाना बनाया गया जब केमिकल अली नामक एक कुख्यात सोशल मीडिया अकाउंट ने उनकी एक डॉक्टर्ड तस्वीर बड़े पैमाने पर वायरल की। इसमें एक वयस्क वेबसाइट के शरीर पर उनका चेहरा लगाया गया था।
अपराधियों की प्रोफाइल और तरीका
रिपोर्ट के अनुसार डीपफेक पीड़ितों में छात्र, कार्यकर्ता, पेशेवर, राजनेता, अभिनेत्रियां और आम लोग सभी शामिल हैं। ज्यादातर मामलों में अपराधी पीड़ित का परिचित होता है या ऑनलाइन संपर्क में आया होता है।
वह सोशल मीडिया से तस्वीरें डाउनलोड करता है, डीपफेक टूल से आपत्तिजनक सामग्री तैयार करता है और फिर पीड़ित को धमकी देता है कि पैसे दो या बात मानो वरना यह वीडियो तुम्हारे परिवार, कॉलेज और नियोक्ता के पास पहुंच जाएगा।
समन्वित डिजिटल हमले और मानवाधिकार चिंताएं
बांग्लादेश के मानवाधिकार संगठन वॉइस की एक अध्ययन रिपोर्ट में यह उजागर हुआ कि महिला कार्यकर्ताओं और महिला सरकारी सलाहकारों के खिलाफ समन्वित डिजिटल हमलों का उद्देश्य केवल बदनामी नहीं बल्कि उन्हें सार्वजनिक जीवन से पूरी तरह बाहर धकेलना है।
यह प्रवृत्ति केवल बांग्लादेश तक सीमित नहीं है। भारत, पाकिस्तान, नेपाल सहित दक्षिण एशिया के कई देशों में डीपफेक के जरिए महिलाओं को चुप कराने के मामले सामने आए हैं। विशेषज्ञों का मानना है कि जब तक तकनीक-आधारित लैंगिक हिंसा के खिलाफ कड़े कानून नहीं बनते और डिजिटल साक्षरता नहीं बढ़ती, तब तक यह संकट और गहरा होता जाएगा।