القائمة القائمة

لماذا يعد تطبيق Facemega deepfake منحدرًا زلقًا

أصبح الوصول إلى تقنية deepfake أسهل. مع اختيار غالبية الناس لاستخدامه لأسباب شريرة ، من الصعب تجاهل أن العواقب السلبية للتكنولوجيا الجديدة قد تفوق فوائدها.

تمت مناقشة العواقب السلبية والخطيرة للتزييف العميق بشدة منذ أن دخلت تقنية الذكاء الاصطناعي طريقها إلى الاتجاه السائد في عام 2017.

الخبراء لديهم حذر أن استخدامها على نطاق واسع ، إلى جانب التحسين المستمر لأنظمة التعلم للذكاء الاصطناعي ، سوف "يعيث فسادًا في المجتمع" وأننا "لسنا مستعدين" للتعامل مع التداعيات.

إلى جانب المقاطع الحقيقية المخيفة التي تم نشرها على تضمين التغريدة حساب TikTok ، لا تستغرق معظم عمليات التزييف العميق وقتًا طويلاً لإظهار مواطن الخلل الدقيقة التي تسمح لنا باكتشافها كمحتوى ملفق.

إن إنشاء مقطع فيديو لا تشوبه شائبة لشخص يقول شيئًا لم يقله أو يؤدي أفعالًا لم يفعلها يتطلب مهارات تحرير هائلة ، من أجل المرء. كما يتطلب أيضًا العديد من النقاط المرجعية للوسائط المتعددة لكي يتعلم الذكاء الاصطناعي سلوكيات الفرد وعاداته الكلامية جيدًا بما يكفي ليكون مقنعًا.

لكن بالطبع ، كانت مسألة وقت فقط قبل أن تتقدم هذه التكنولوجيا - وقبل أن يتم تكييفها لتعمل في أيدي الناس العاديين.

في الأيام الأخيرة ، أبلغ مستخدمو تطبيقات تحرير الصور و Facebook عن رؤية إعلانات لتطبيق يسمى Facemega. يسمح برنامج الهاتف الذكي المجاني للمستخدمين بتحميل وتثبيت صورة تقريبًا أي شخص وجها لوجه أي وقت فيديو من اختيارهم.

بالنظر إلى مقطع فيديو مزيف عميق لإيما واتسون أعلاه ، يمكنك أن ترى مدى واقعية التكنولوجيا.

على محمل الجد ، ذهبت إلى حفل ABBA الهولوغرافي الذي نال استحسان النقاد في لندن مؤخرًا والحركات الواقعية في هذا المقطع متشابهة بشكل لافت للنظر من حيث الجودة.

لكن يصعب تفويت الطبيعة الموحية للفيديو ، والتي توضح تمامًا النوايا المظلمة للمستخدمين - وربما المبرمجين أنفسهم. مما يجعل الأمور أكثر إشكالية هو استخدام هذا المقطع كإعلان.

إعادة تغريد تسجيل شاشة الإعلان ، قال أحد مستخدمي Twitter: هذه مجرد طريقة جديدة للتحرش الجنسي بالنساء. إنه يسلب استقلاليتك الجسدية ويجبرك على ممارسة مواد جنسية غير رضائية ، والتي يمكن استخدامها بعد ذلك لإذلالك والتمييز ضدك. ناهيك عن الآثار النفسية.

من الواضح أن تشجيع استخدام تقنية التزييف العميق للذكاء الاصطناعي لهذا الغرض أمر شرير. ومع ذلك ، لا ينبغي أن يكون ذلك مفاجئًا ، لأن أشهر استخدامات التكنولوجيا المزيفة العميقة حتى الآن كانت إما إباحية أو مرتبطة بالسياسة.

 

في عام 2019 - بعد عامين فقط من إنشاء التكنولوجيا - تم الإبلاغ عن أن ما لا يقل عن 96 في المائة من جميع مقاطع الفيديو المزيفة على الإنترنت كانت إباحية ، وفقًا لبحث أجرته شركة Deeptrace.

تعمل العديد من المواقع الإلكترونية على دعم إنشاء مقاطع الفيديو هذه والتي تستضيف مواد إباحية مزيفة بشكل حصري. تم إنشاء العديد من المقاطع المزيفة التي تم تحميلها على هذه المنصات من قبل متخرجين انتقاميين أو أشخاص يتطلعون إلى تشويه صورة أعدائهم.

نتيجة لذلك ، بدأت الحكومات في جميع أنحاء العالم في بناء أطر قانونية أقوى تحد من طرق استخدام تقنية التزييف العميق. من المسلم به أن هذه الحالات يجب أن تكون على علم بالحالات الموجودة ، ولهذا حذر خبراء التكنولوجيا من أننا غير مستعدين لمخاطرها.

مرة أخرى في تشرين الثاني (نوفمبر) 2022 ، صنعت حكومة المملكة المتحدة مواد إباحية مزيفة جريمة جنائية في السجن. ومع ذلك ، لا يمكن للمحاكم مقاضاة الأفراد إلا في حالة قيامهم بنشر هذه الصور أو مقاطع الفيديو عبر الإنترنت.

كما وضعت بعض الولايات الأمريكية قوانين مماثلة في المكان. من الناحية الواقعية ، لا يمكن لهذه السياسات حماية أي شخص من إدراجه في مقاطع الفيديو الرسومية لمشاهدتها شخص آخر خلف الأبواب المغلقة.

هذا الفكر ، بالنسبة للغالبية العظمى من النساء ، سيكون كافيًا لإثارة الاشمئزاز والغضب ، إن لم يكن رعشة ورد فعل زحف للجلد.

تضمين التغريدة

تحدي تبديل الوجه مع # فاشميغا #facemegaapp #تبديل الوجه # حكاية #تحرير الفيديو #مضحك #التمثيل

♬ سعيد متفائل المرح روك حيوية - StockSounds

كما ذكرنا ، تم استخدام تقنية التزييف العميق أيضًا لإثارة الضجة السياسية.

لقد كان باراك أوباما مصور إهانة دونالد ترامب. مارك زوكربيرج كانت على أهبة الاستعداد للقول إن الغرض الوحيد من Facebook هو التحكم في مستخدمي المنصة واستغلالهم.

انتشر كل ذلك على نطاق واسع ، وكشف عن مستوى الاهتمام ، والرهبة ، وفي بعض الحالات ، خداع تقنية التزييف العميق.

عند استخدامها في سياقات أخرى ، يمكن أن تكون العواقب أكثر خطورة. خلال الأشهر الأولى من الغزو الروسي لأوكرانيا ، فيديوهات للرئيس زيلينسكي ظهرت حيث طلب من الجنود الأوكرانيين الاستسلام للجنود الروس.

لحسن الحظ ، فإن حقيقي توجه الرئيس زيلينسكي إلى حساباته الشخصية على وسائل التواصل الاجتماعي لتأكيد أن الفيديو قد تم التلاعب به من قبل قوى المعارضة. وذكّر شعبه بأن القتال من أجل بلدهم لم ينته بعد وحثهم على البقاء متحدين.

يبدو الأمر كما لو كان مزيفًا عميقًا ، حتى عند استخدامه لعمل نسخة جديرة بالضحك من تقاليد الملكة إليزابيث الثانية خطاب عيد الميلاد، تميل إلى ظهور شعور مقلق داخلنا.

ربما نحن علم في العمق أن هذه التكنولوجيا من المرجح أن يتم استخدامها بقصد ضار. إذن ، ماذا سيحدث عندما يصبح متقدمًا جدًا بحيث لا يمكننا التمييز بين الحقيقة والخيال؟

مع التطبيقات المجانية للتنزيل مثل Facemega ، هل يجب أن نشعر بالقلق من أن تقنية deepfake أصبحت متاحة على نطاق واسع عبر هواتفنا الذكية؟

أود أن أقول ذلك ، لسوء الحظ ، يجب أن نكون كذلك.

إمكانية الوصول