मेन्यू मेन्यू

स्पष्ट टेलर स्विफ्ट एआई छवियां कानूनी घबराहट का कारण बनती हैं

पिछले हफ्ते, एआई का उपयोग करके बनाई गई टेलर स्विफ्ट की स्पष्ट छवियां ट्विटर (एक्स) पर साझा की गईं, कुछ पोस्ट को लाखों बार देखा गया। आगामी कानूनी घबराहट सेलेब्रिटी समानता और सामान्य तौर पर एआई छवियों के उपयोग पर प्रभाव पड़ सकता है।

टेलर स्विफ्ट पिछले सप्ताह एआई इमेज जेनरेशन का शिकार हुई थीं। उसकी सहमति के बिना स्पष्ट, अश्लील चित्र बनाए गए और हजारों उपयोगकर्ताओं द्वारा एक्स (औपचारिक रूप से ट्विटर) पर साझा किए गए।

प्लेटफ़ॉर्म से हटाए जाने और साफ़ किए जाने से पहले पोस्ट को लाखों बार देखा गया था।

आगामी परिणाम तेजी से सामने आए हैं, एक्स ने छवियों के किसी भी उल्लेख को हटाने के लिए सप्ताहांत में अपने सेंसरशिप फिल्टर को बदल दिया है। अमेरिकी राजनेता हैं नए कानूनों की मांग प्रत्यक्ष परिणाम के रूप में डीपफेक को अपराध घोषित करना, और माइक्रोसॉफ्ट ने प्रतिबद्धता जताई है भविष्य में होने वाली घटनाओं को रोकने के लिए अपने डिज़ाइनर आईपी ऐप पर अधिक सुरक्षा उपाय करने के लिए।

डीपफेक विवाद में ये नवीनतम घटनाक्रम कई वर्षों तक ऑनलाइन अनैतिक अश्लील सामग्री के बाद हुए हैं, जिनमें से अधिकांश पीड़ितों से उनकी समानता पर स्वायत्तता छीन लेते हैं। यह एक ऐसी समस्या है जो मशहूर हस्तियों और आम लोगों दोनों को समान रूप से चिंतित करती है, क्योंकि एआई उपकरण किसी भी और सभी के उपयोग के लिए अधिक सामान्य और सुलभ हो गए हैं।

टेलर की हाई-प्रोफ़ाइल स्थिति और समर्पित प्रशंसक आधार ने इस मुद्दे को वर्तमान समाचारों में सबसे आगे रखने में मदद की है, और इसमें कोई संदेह नहीं है कि नीति निर्माताओं, सोशल मीडिया प्लेटफ़ॉर्म और तकनीकी कंपनियों को इस तरह से सचेत किया जाएगा जैसा हमने अब तक नहीं देखा है।

हालाँकि बदलाव और सख्त कानून बहुत पहले ही लागू हो जाने चाहिए थे, लेकिन आने वाले हफ्तों और महीनों में हमें बहुत जरूरी प्रगति देखने को मिलने की संभावना है। प्रभाव व्यापक हो सकते हैं और सामान्य रूप से एआई छवि निर्माण को प्रभावित कर सकते हैं - न कि केवल सेलिब्रिटी समानताएं या स्पष्ट सामग्री।


कानूनी नतीजे भविष्य में एआई छवि निर्माण को कैसे प्रभावित कर सकते हैं?

तो, क्या विशेष रूप से क्या टेलर की डीपफेक एआई सामग्री का मुकाबला करने के लिए कानूनी रूप से कुछ हो रहा है?

मंगलवार को अमेरिकी सीनेटरों का एक द्विदलीय समूह एक बिल पेश किया जो एआई द्वारा उत्पन्न गैर-सहमति वाली, कामुक छवियों के प्रसार को अपराध घोषित कर देगा। इससे पीड़ितों को 'उन व्यक्तियों के खिलाफ नागरिक दंड की मांग करने की अनुमति मिल जाएगी जिन्होंने इसे वितरित करने के इरादे से जालसाजी का उत्पादन किया या इसे अपने पास रखा।'

इसके अलावा, जो कोई भी यह जानते हुए भी चित्र या सामग्री प्राप्त करता है कि वे सहमति से नहीं बनाई गई हैं, वह भी प्रभावित होगा।

अमेरिकी सीनेट के बहुमत सचेतक डिक डर्बिन और सीनेटर लिंडसे ग्राहम, एमी क्लोबुचर और जोश हॉले इस विधेयक के पीछे हैं। इसे 'स्पष्ट रूप से जाली छवियों और गैर-सहमति वाले संपादनों को बाधित करने वाला अधिनियम 2024' कहा जा रहा है, या 'अवज्ञा अधिनियम' छोटे के लिए।

टेलर की अश्लील तस्वीरें व्हाइट हाउस तक भी पहुंचीं। प्रेस सचिव कैरिन जीन-पियरे ने शुक्रवार को एबीसी न्यूज को बताया कि सरकार 'प्रसारित छवियों की रिपोर्टों से चिंतित' थी।

यह सब आगे से चलता रहता है एक और बिल को नो एआई फ्रॉड एक्ट कहा जाता है जिसे 10 जनवरी को पेश किया गया थाth2024.

इसका उद्देश्य 'एआई दुरुपयोग के खिलाफ संघीय, आधारभूत सुरक्षा' बनाना और प्रथम संशोधन अधिकारों को ऑनलाइन बनाए रखना है। यह एआई जालसाजी के खिलाफ किसी व्यक्ति की समानता और आवाज के अधिकारों पर विशेष जोर देता है। यदि पारित हो जाता है, तो नो एआई फ्रॉड अधिनियम 'पुनः पुष्टि करेगा कि हर किसी की समानता और आवाज सुरक्षित है और व्यक्तियों को उनकी पहचान करने वाली विशेषताओं के उपयोग को नियंत्रित करने का अधिकार देगा।'

बेशक, कानूनी सुरक्षा वास्तव में एक चीज़ है लागू करने नेट-वाइड आधार पर यह दूसरा है। वहाँ भी है अभिव्यक्ति की स्वतंत्रता का विवादास्पद मुद्दा और अभिव्यक्ति - और यह निर्धारित करना कि सज़ा कहाँ निहित है।

क्या एआई छवियों को संभव बनाने वाले मध्यस्थ सॉफ़्टवेयर प्लेटफ़ॉर्म को प्रतिबंधित या दंडित किया जाना चाहिए? उदाहरण के लिए, हम फ़ोटोशॉप को सीमित नहीं करते हैं, बावजूद इसके कि यह भ्रामक छवियाँ बनाने का एक प्रमुख उपकरण है। एआई कंपनियों को यहां कानूनी तौर पर कहां खड़ा होना चाहिए? यह फिलहाल अस्पष्ट है.


हमें गैर-सहमति वाली एआई छवि निर्माण के बारे में चिंतित क्यों होना चाहिए? 

एआई छवि निर्माण और गैर-सहमति वाली डीप फेकिंग के साथ ढेर सारी समस्याएं आती हैं, जिनमें से अधिकांश संभवतः स्पष्ट हैं।

अधिकांश एआई-जनित अश्लीलता महिलाओं की होती है और विषय की सहमति के बिना की जाती है। एक 2019 अध्ययन पाया गया कि सभी डीपफेक वीडियो में से 96% स्पष्ट थे, जिनमें महिलाओं को दिखाया गया था, और बिना अनुमोदन के बनाए गए थे। वह विशाल बहुमत और इंगित करता है कि AI-जनित सामग्री है मुख्यतः प्रत्यक्ष स्त्रीद्वेष में निहित है और यौन उत्पीड़न.

स्पष्ट रूप से कहें तो, कानूनी ढाँचे एआई सामग्री और उससे जुड़े जोखिमों के साथ तालमेल बिठाने में विफल रहे हैं। महिलाएं तेजी से खतरे में हैं, चाहे वह टेलर स्विफ्ट जैसी शीर्ष स्तरीय हस्तियां हों या जनता के विनम्र सदस्य हों। यह संभावित जोखिम भी लगातार बढ़ रहा है, क्योंकि सॉफ़्टवेयर का उपयोग करना आसान हो गया है और अधिक आसानी से उपलब्ध हो गया है।

हम पहले से ही जानते हैं कि ऑनलाइन कई समुदाय हैं, अक्सर 4chan, टेलीग्राम और डिस्कोर्ड जैसे मंचों के माध्यम से, जो बिना अनुमति के प्रसिद्ध महिलाओं की अश्लील सामग्री उत्पन्न और प्रसारित करते हैं। अमेरिकी कांग्रेस के किसी भी अच्छे इरादे वाले विधेयक के बावजूद, यह अनियमित है और इस पर पूरी तरह से रोक लगाना लगभग असंभव है।

यह सब हमारे राजनीतिक क्षेत्रों में गहरी-नकली कल्पना और वीडियो के परिणामों पर विचार किए बिना है, जहां गलत सूचना पहले से भी अधिक व्यापक हो जाएगी। ऑनलाइन पहचान की चोरी के लिए कोई उचित कानूनी दायित्व नहीं होने पर, हम किसी सेलिब्रिटी को कुछ भी कहने या करने से कैसे रोक सकते हैं?

हमारे दादा-दादी से यह पता लगाना काफी कठिन है कि ऑनलाइन क्या वास्तविक है और क्या नहीं। अब जबकि एआई ने ऑडियो, वीडियो और यहां तक ​​कि कॉपी राइटिंग में भी विस्फोट कर दिया है, तो मानव सामग्री और बॉट सामग्री को समझना आवश्यक हो गया है लगभग एक समझ से बाहर बारूदी सुरंग. यह महिलाओं को विफल कर रहा है, हमारी अपनी समानता पर स्वामित्व को खत्म कर रहा है, और अंततः ऑनलाइन संवाद करने की हमारी क्षमता को नुकसान पहुंचा रहा है।

टेलर स्विफ्ट अभी इस मुद्दे का नेतृत्व कर रही हैं, लेकिन वास्तविकता यह है कि डीपफेक सामग्री और एआई पोर्नोग्राफ़ी लंबे समय से इंटरनेट पर प्रसारित हो रही है, मंचों के गंदे कोनों में फैल रही है और इसे अनियंत्रित होने दिया जा रहा है। यह एक बहुत बड़ी, गंभीर समस्या है, जिसे किसी एक विधेयक या प्रस्ताव से ठीक नहीं किया जा सकता।

सुरक्षा के लिए और अधिक प्रयास करने की जरूरत है हर कोई, सिर्फ अति-प्रसिद्ध नहीं।

अभिगम्यता