Menu Menu

Pourquoi l'application Facemega deepfake est une pente glissante

L'accès à la technologie deepfake devient plus facile. Avec la majorité des gens qui choisissent de l'utiliser pour des raisons sinistres, il est difficile d'ignorer que les conséquences négatives de la nouvelle technologie pourraient l'emporter sur ses avantages.

Les conséquences négatives et dangereuses des deepfakes ont fait l'objet de vives discussions depuis que la technologie de l'IA a fait son entrée dans le courant dominant en 2017.

Les experts ont averti que leur utilisation généralisée, combinée à l'amélioration constante des systèmes d'apprentissage de l'IA, « fera des ravages dans la société » et que nous ne sommes « pas préparés » à faire face aux retombées.

Outre les clips étrangement réels postés sur le @deepTomCruise Compte TikTok, la plupart des deepfakes ne tardent pas à présenter des problèmes subtils qui nous permettent de les détecter comme du contenu fabriqué.

Créer une vidéo impeccable de quelqu'un disant quelque chose qu'il n'a pas dit ou accomplissant des actes qu'il n'a pas faits nécessite des compétences de montage phénoménales, pour commencer. Cela nécessite également de nombreux points de référence multimédias pour que l'IA apprenne suffisamment bien les manières et les habitudes de parole de l'individu pour être convaincante.

Mais bien sûr, ce n'était qu'une question de temps avant qu'une telle technologie ne progresse - et avant qu'elle ne soit adaptée pour fonctionner entre les mains des gens ordinaires.

Ces derniers jours, les utilisateurs d'applications de retouche photo et Facebook ont ​​signalé avoir vu des publicités pour une application appelée Facemega. Le logiciel gratuit pour smartphone permet aux utilisateurs de télécharger et d'assembler un portrait de n'importe qui face à tous vidéo de leur choix.

En regardant la vidéo d'Emma Watson profondément truquée ci-dessus, vous pouvez voir à quel point la technologie est réaliste.

Sérieusement, je suis allé récemment au concert holographique ABBA acclamé par la critique à Londres et les mouvements réalistes de ce clip sont d'une qualité étonnamment similaire.

Mais difficile de passer à côté du caractère suggestif de la vidéo, qui illustre parfaitement les sombres intentions des utilisateurs – et peut-être des programmeurs eux-mêmes. Ce qui rend les choses plus problématiques, c'est que ce clip est utilisé comme publicité.

Retweeter l'enregistrement d'écran de l'annonce, un utilisateur de Twitter a déclaré: 'C'est juste une nouvelle façon de harceler sexuellement les femmes. Cela vous enlève votre autonomie corporelle et vous force à adopter du matériel sexuel non consensuel, qui peut ensuite être utilisé pour vous humilier et vous discriminer. Sans parler des effets psychologiques.

Encourager l'utilisation de deepfake AI à cette fin est évidemment sinistre. Cependant, cela ne devrait pas être surprenant, car les utilisations les plus célèbres de la technologie deep fake à ce jour ont été soit pornographiques, soit liées à la politique.

 

En 2019 – deux ans seulement après la création de la technologie – il a été signalé qu'au moins 96 % de toutes les vidéos deepfake trouvées en ligne étaient pornographiques, selon une étude menée par Deeptrace.

De nombreux sites Web hébergeant exclusivement de la pornographie deepfake alimentent la création de ces vidéos. De nombreux clips falsifiés téléchargés sur ces plateformes ont été créés par des ex vengeurs ou des personnes cherchant à ternir l'image de leurs ennemis.

En conséquence, les gouvernements du monde entier ont commencé à mettre en place des cadres juridiques plus solides qui limitent les façons dont la technologie deepfake peut être utilisée. Certes, ceux-ci devaient être informés par des cas existants, c'est pourquoi les experts en technologie ont averti que nous n'étions pas préparés à ses dangers.

En novembre 2022, le gouvernement britannique a fait de la pornographie deepfake une infraction pénale passible de prison. Cependant, les tribunaux ne peuvent poursuivre les individus qu'en cas de diffusion en ligne de ces images ou vidéos.

Certains États américains ont également mis lois similaires en place. De manière réaliste, cependant, ces politiques ne peuvent empêcher quiconque d'être inséré dans des vidéos graphiques pour le visionnement d'un autre individu à huis clos.

Cette pensée, pour la grande majorité des femmes, suffira à susciter le dégoût et la colère, sinon une réaction de frisson et de chair de poule.

@kennaacting

Défi d'échange de visage avec #facemega #facemegaapp #faceswap #facemagie #montage vidéo #drôle #agissant

♬ Happy Upbeat Fun Rock Énergique – StockSounds

Comme mentionné, les deepfakes ont également été utilisés pour inciter à un tollé politique.

Barak Obama a été représenté insultant Donald Trump. Mark Zuckerberg a été prêt dire que le seul but de Facebook est de contrôler et d'exploiter les utilisateurs de la plateforme.

Tout cela est devenu viral, révélant le niveau d'intérêt, la crainte et, dans certains cas, la supercherie de la technologie deepfake.

Utilisé dans d'autres contextes, les conséquences pourraient être bien plus dangereuses. Au cours des premiers mois de l'invasion russe de l'Ukraine, vidéos du président Zelensky a émergé dans lequel il a dit aux soldats ukrainiens de se rendre aux soldats russes.

Heureusement la réal Le président Zelensky a consulté ses comptes personnels sur les réseaux sociaux pour confirmer que la vidéo avait été trafiquée par les forces de l'opposition. Il a rappelé à son peuple que la lutte pour leur pays n'était pas encore terminée et les a exhortés à rester unis.

Il semble que les deepfakes, même lorsqu'ils sont utilisés pour faire une version digne de rire du traditionnel de la reine Elizabeth II Discours de Noël, ont tendance à faire surgir en nous un sentiment troublant.

Peut-être que nous savoir au fond que la technologie est beaucoup plus susceptible d'être utilisée avec une intention malveillante. Alors, que se passera-t-il lorsqu'il deviendra si avancé que nous ne pourrons plus faire la différence entre la réalité et la fiction ?

Avec des applications téléchargeables gratuitement comme Facemega, devrions-nous craindre que la technologie deepfake ne devienne largement disponible via nos smartphones ?

Je dirais que, malheureusement, nous devrions l'être.

Accessibilité