क्या एआई जेनरेटेड डीपफेक फोटो और वीडियो से निजात पाने का नया उपाय है?

Click to start listening
क्या एआई जेनरेटेड डीपफेक फोटो और वीडियो से निजात पाने का नया उपाय है?

सारांश

ऑस्ट्रेलिया के मोनाश यूनिवर्सिटी के शोधकर्ताओं ने एएफपी के साथ मिलकर एक नया उपकरण विकसित किया है, जो डीपफेक से निपटने में सहायक होगा। यह डिवाइस एआई द्वारा निर्मित सामग्री को पहचानने में मदद करेगा। जानें इसके बारे में और भी खास बातें!

Key Takeaways

  • डीपफेक के मामलों में वृद्धि हो रही है।
  • मोनाश यूनिवर्सिटी ने एएफपी के साथ मिलकर नया उपकरण विकसित किया है।
  • यह उपकरण एआई के जरिए बच्चों का शोषण रोकेगा।
  • सिल्वरर नामक उपकरण डेटा में सूक्ष्म परिवर्तन करता है।
  • यह सामान्य उपयोगकर्ताओं के लिए सुरक्षा प्रदान करेगा।

मेलबर्न, 10 नवंबर (राष्ट्र प्रेस)। आर्टिफिशियल इंटेलिजेंस (एआई) के आगमन के बाद से डीपफेक की घटनाएं काफी बढ़ गई हैं। डीपफेक के मामलों में एआई का अनुचित उपयोग हो रहा है। इसी संदर्भ में, ऑस्ट्रेलिया की मोनाश यूनिवर्सिटी के शोधकर्ताओं ने ऑस्ट्रेलियाई संघीय पुलिस (एएफपी) के सहयोग से एक महत्वपूर्ण खोज की है।

न्यूज एजेंसी सिन्हुआ के अनुसार, मोनाश यूनिवर्सिटी के शोधकर्ता एएफपी के साथ मिलकर डीपफेक से निपटने के लिए एक नया उपकरण विकसित कर रहे हैं। सोमवार को जारी किए गए मोनाश विश्वविद्यालय के बयान के अनुसार, यह नया उपकरण एआई द्वारा निर्मित बच्चों के शोषण सामग्री, डीपफेक फोटो और वीडियो आदि के निर्माण को धीमा कर सकता है और अपराधियों को रोकने में सहायक हो सकता है।

एएफपी और मोनाश यूनिवर्सिटी के बीच सहयोग से स्थापित एआई फॉर लॉ एन्फोर्समेंट एंड कम्युनिटी सेफ्टी (एआईएलईसीएस) लैब के अनुसार, इसे "डेटा पॉइजनिंग" कहा जाता है। इस प्रक्रिया में डेटा में सूक्ष्म परिवर्तन किए जाते हैं, जिससे एआई प्रोग्राम का उपयोग करके फोटो या वीडियो का निर्माण, हेरफेर और दुरुपयोग करना काफी कठिन हो जाता है।

एआई और मशीन लर्निंग उपकरण बड़े ऑनलाइन डेटासेट पर निर्भर करते हैं। शोधकर्ताओं का कहना है कि यदि इस डेटा में छेड़छाड़ या हेरफेर की गई, तो इस उपकरण से गलत परिणाम प्राप्त होगा। इससे अपराधियों द्वारा निर्मित फर्जी तस्वीरों या वीडियो को पहचानना आसान हो सकता है। इससे जांचकर्ताओं को नकली सामग्री की पहचान कर उसे रोकने में मदद मिल सकती है।

इस एआई डिसरप्टर डिवाइस का नाम 'सिल्वरर' है। अपने प्रोटोटाइप चरण में 'सिल्वरर' का उद्देश्य ऐसी तकनीक का विकास करना है जो सामान्य ऑस्ट्रेलियाई लोगों के लिए उपयोग में आसान हो। जो लोग अपने डेटा को सोशल मीडिया पर सुरक्षित रखना चाहते हैं, उन्हें इसमें मदद मिलेगी।

एआईएलईसीएस शोधकर्ता और परियोजना प्रमुख, मोनाश के पीएचडी उम्मीदवार एलिजाबेथ पेरी ने कहा, "कोई व्यक्ति सोशल मीडिया या इंटरनेट पर तस्वीरें अपलोड करने से पहले, सिल्वरर का उपयोग करके उन्हें संशोधित कर सकता है। इससे एआई मॉडल को धोखा देने के लिए पिक्सल में बदलाव किया जाएगा और परिणामस्वरूप बनने वाली तस्वीरें बहुत कम गुणवत्ता वाली, धुंधली पैटर्न वाली या पूरी तरह से पहचानने योग्य नहीं होंगी।"

एएफपी ने एआई द्वारा निर्मित बच्चों के शोषण सामग्री में वृद्धि की सूचना दी है। डिजिटल फोरेंसिक विशेषज्ञ और एआईएलईसीएस के सह-निदेशक कैंपबेल विल्सन के अनुसार, इसे अपराधी ओपन-सोर्स तकनीक का उपयोग करके आसानी से बना और वितरित कर सकते हैं।

Point of View

यह कहना उचित होगा कि डीपफेक तकनीक के खतरे को नजरअंदाज नहीं किया जा सकता है। लेकिन, मोनाश यूनिवर्सिटी का प्रयास इस दिशा में एक सकारात्मक कदम है। हमें इस तकनीक का सही उपयोग सुनिश्चित करने की आवश्यकता है।
NationPress
10/11/2025

Frequently Asked Questions

डीपफेक क्या है?
डीपफेक एक तकनीक है जिसमें एआई का उपयोग करके असली दिखने वाली तस्वीरें और वीडियो बनाए जाते हैं।
इस नए उपकरण का नाम क्या है?
इस नए उपकरण का नाम 'सिल्वरर' है।
यह उपकरण कैसे काम करेगा?
यह उपकरण एआई द्वारा बनाई गई सामग्री को पहचानने और रोकने में मदद करेगा।
क्या यह उपकरण उपयोग में आसान है?
हां, इसका उद्देश्य सामान्य लोगों के लिए इसे उपयोग में आसान बनाना है।
क्या इससे बच्चों का शोषण कम होगा?
इस उपकरण की मदद से एआई द्वारा बने शोषण सामग्री को पहचानना आसान हो सकता है, जिससे यह कम हो सकता है।