मेन्यू मेन्यू

फेसबुक के 'डीप फेक डिटेक्शन चैलेंज' ने लौटाया चिंताजनक डेटा

2020 के अमेरिकी राष्ट्रपति चुनाव के रूप में, सोशल मीडिया साइटों को राजनीतिक प्रवचन के अपरिहार्य हमले के लिए तैयार करना पड़ रहा है, और मानहानि सामग्री का पता लगाना एजेंडे में अधिक है।

यदि आप थ्रेड के साथ अप टू डेट रहते हैं, तो यह निश्चित रूप से नहीं होगा पहली बार हो जब आपने डीपफेक के बारे में सुना हो। यह AI फेस मैनिपुलेशन तकनीक कई साल पहले निकोलस केज के सहज मेम के साथ शुरू हुई थी, लेकिन धीरे-धीरे एक गंभीर ऑनलाइन हथियार के रूप में विकसित हुई है जो आधुनिक लोकतंत्र की अखंडता को खतरा हो सकती है।

यह मूल रूप से मनोरंजक सेलिब्रिटी नकल के साथ सबरेडिट्स को पॉप्युलेट करने के लिए उपयोग किया जाता था। जल्दी ही इस तकनीक को राष्ट्रपति के भाषणों, अभियान रैलियों और राजनीतिक प्रचार में लागू किया जाने लगा जो बन गया वायरल ऑनलाइन. अचानक, वैश्विक स्तर पर गलत सूचना फैलाने के लिए डीपफेक का इस्तेमाल किया जा सकता है, वास्तविक दुनिया के आंकड़े प्रदर्शित करते हुए वे चीजों की घोषणा करते हैं सच में कभी नहीं कहा. विश्वसनीय वीडियो साक्ष्य जल्दी से अतीत की बात बन गए - और सोशल मीडिया को बनाए रखना पड़ा।

चाहे हम फोन पर नवीनता वाले ऐप्स या अधिक गुप्त सॉफ़्टवेयर की बात कर रहे हों, डीपफेक बनाना आसान होता जा रहा है और उनका पता लगाना कठिन होता जा रहा है। जिन साइटों पर इस तरह की सामग्री रखने की सबसे अधिक संभावना है, जैसे कि फेसबुक, अब यह सुनिश्चित करने के लिए डीपफेक में नई प्रगति को बनाए रखने की जिम्मेदारी है कि वे ऑनलाइन न रहें।

फेसबुक डीपफेक से कैसे निपट रहा है?

अपने मंच पर दो हाई प्रोफाइल मामलों के बाद - डेमोक्रेटिक स्पीकर की बदनामी नैन्सी पलोसी और मि ज़ुकेरबर्ग खुद - फेसबुक ने 2019 के अंत में उपयोगकर्ताओं से एक सार्वजनिक 'चुनौती' के माध्यम से अपने गहरे नकली पहचान प्रयासों को मजबूत करने में मदद करने का आह्वान किया।

जिन लोगों ने भाग लिया, उन्हें 100,000 लघु क्लिप दिए गए जिनमें फेसबुक द्वारा काम पर रखे गए 3000 अभिनेताओं के फुटेज थे। इस पूल से, प्रतिभागियों को यह पहचानने का काम सौंपा गया था कि फेसबुक ने अपने स्वयं के कस्टम मेड ऑटोमैटिक डिटेक्शन एल्गोरिदम का उपयोग करके किन नमूनों के साथ छेड़छाड़ की थी।

लगभग एक साल बाद हमारे पास आखिरकार है परिणाम रिकॉर्ड पर इन परीक्षणों से। 2000 प्रतिभागियों ने अपने एल्गोरिदम का परीक्षण किया (आवेदक ज्यादातर तकनीकी उद्योग से थे या अकादमिक पृष्ठभूमि वाले थे), और सबसे सफल नमूने ने 82% की प्रभावशाली पहचान दर हासिल की। डिजिटल कारनामों की भीड़ को ध्यान में रखते हुए जो आज गहरे नकली हैं; ब्लर्स, फ्रेम-रेट मॉडिफिकेशन, ओवरले, बस कुछ ही नाम रखने के लिए ... आपको कहना होगा कि यह वास्तव में एक आशाजनक रिटर्न है।

चुनौती के विजेता, सेलिम सेफ़रबेकोव को $500,000 का पुरस्कार दिया गया और फिर उन्हें एआई विशेषज्ञों के लिए ज्ञात गहरे नकली धोखे के सबसे जटिल रूपों से भरे 'ब्लैक बॉक्स' डेटासेट के खिलाफ अपने जीतने वाले एल्गोरिदम को खड़ा करने का काम सौंपा गया। एक बार जब स्कोर को अंतिम रूप दिया गया और पिछले परिणामों के साथ जोड़ दिया गया, तो एक समग्र औसत निकला केवल 65%.


क्या ये परिणाम फेसबुक के लिए चिंता का विषय होना चाहिए?

यह अध्ययन इस बात पर प्रकाश डालता है कि जंगली में डीपफेक को पहचानना वास्तव में कितना मुश्किल है। आखिरकार, एआई की अनुकूली प्रकृति का मतलब है कि जैसे ही मौजूदा कारनामों को बंद कर दिया जाता है, नए जल्दी से फसल हो सकते हैं और यह एक वर्ग में वापस आ जाता है। यह बिल्ली और चूहे का एक निराशाजनक, कभी न खत्म होने वाला खेल है।

हालांकि, फेसबुक के शोधकर्ताओं को विश्वास है कि इस परीक्षण से एकत्र किया गया डेटा उनके स्वयं के निवारक सॉफ़्टवेयर को मजबूत करने में अमूल्य साबित होगा जो वर्तमान में काम कर रहा है। फेसबुक सबसे सफल एल्गोरिदम के लिए स्रोत कोड जारी करने की भी योजना बना रहा है - जिसमें सेफ़रबेकोव भी शामिल है - वायरल होने से पहले अन्य शोधकर्ताओं को नकली वीडियो का पता लगाने में सहायता करने के लिए।

अभी के लिए, फेसबुक इसे स्मार्ट तरीके से खेल रहा है और 2020 में किसी भी प्रकार की रिवर्स इंजीनियरिंग को सामने आने से रोकने के लिए अपने स्वयं के डिटेक्शन सॉफ़्टवेयर को गुप्त रख रहा है। मुख्य प्रौद्योगिकी अधिकारी माइक श्रोएफ़र कहता है कि फिलहाल डीपफेक फेसबुक के साथ 'बड़ा मुद्दा नहीं' है, लेकिन वह और उनकी टीम इस नवंबर में होने वाले अमेरिकी चुनाव की तैयारी में 'फ्लैट फुटेड' पकड़े जाने से बचने के लिए अथक प्रयास कर रहे हैं।

जैसा कि यह खड़ा है, यह देखा जाना बाकी है कि क्या हम वास्तव में गहरी नकली की अगली लहर से निपटने के लिए सुसज्जित हैं। लेकिन आप एक बात की गारंटी दे सकते हैं, यह is अ रहे है।

अभिगम्यता