En regardant la vidéo d'Emma Watson profondément truquée ci-dessus, vous pouvez voir à quel point la technologie est réaliste.
Sérieusement, je suis allé récemment au concert holographique ABBA acclamé par la critique à Londres et les mouvements réalistes de ce clip sont d'une qualité étonnamment similaire.
Mais difficile de passer à côté du caractère suggestif de la vidéo, qui illustre parfaitement les sombres intentions des utilisateurs – et peut-être des programmeurs eux-mêmes. Ce qui rend les choses plus problématiques, c'est que ce clip est utilisé comme publicité.
Retweeter l'enregistrement d'écran de l'annonce, un utilisateur de Twitter a déclaré: 'C'est juste une nouvelle façon de harceler sexuellement les femmes. Cela vous enlève votre autonomie corporelle et vous force à adopter du matériel sexuel non consensuel, qui peut ensuite être utilisé pour vous humilier et vous discriminer. Sans parler des effets psychologiques.
Encourager l'utilisation de deepfake AI à cette fin est évidemment sinistre. Cependant, cela ne devrait pas être surprenant, car les utilisations les plus célèbres de la technologie deep fake à ce jour ont été soit pornographiques, soit liées à la politique.
En 2019 – deux ans seulement après la création de la technologie – il a été signalé qu'au moins 96 % de toutes les vidéos deepfake trouvées en ligne étaient pornographiques, selon une étude menée par Deeptrace.
De nombreux sites Web hébergeant exclusivement de la pornographie deepfake alimentent la création de ces vidéos. De nombreux clips falsifiés téléchargés sur ces plateformes ont été créés par des ex vengeurs ou des personnes cherchant à ternir l'image de leurs ennemis.
En conséquence, les gouvernements du monde entier ont commencé à mettre en place des cadres juridiques plus solides qui limitent les façons dont la technologie deepfake peut être utilisée. Certes, ceux-ci devaient être informés par des cas existants, c'est pourquoi les experts en technologie ont averti que nous n'étions pas préparés à ses dangers.
En novembre 2022, le gouvernement britannique a fait de la pornographie deepfake une infraction pénale passible de prison. Cependant, les tribunaux ne peuvent poursuivre les individus qu'en cas de diffusion en ligne de ces images ou vidéos.
Certains États américains ont également mis lois similaires en place. De manière réaliste, cependant, ces politiques ne peuvent empêcher quiconque d'être inséré dans des vidéos graphiques pour le visionnement d'un autre individu à huis clos.
Cette pensée, pour la grande majorité des femmes, suffira à susciter le dégoût et la colère, sinon une réaction de frisson et de chair de poule.
Comme mentionné, les deepfakes ont également été utilisés pour inciter à un tollé politique.
Barak Obama a été représenté insultant Donald Trump. Mark Zuckerberg a été prêt dire que le seul but de Facebook est de contrôler et d'exploiter les utilisateurs de la plateforme.
Tout cela est devenu viral, révélant le niveau d'intérêt, la crainte et, dans certains cas, la supercherie de la technologie deepfake.
Utilisé dans d'autres contextes, les conséquences pourraient être bien plus dangereuses. Au cours des premiers mois de l'invasion russe de l'Ukraine, vidéos du président Zelensky a émergé dans lequel il a dit aux soldats ukrainiens de se rendre aux soldats russes.
Heureusement la réal Le président Zelensky a consulté ses comptes personnels sur les réseaux sociaux pour confirmer que la vidéo avait été trafiquée par les forces de l'opposition. Il a rappelé à son peuple que la lutte pour leur pays n'était pas encore terminée et les a exhortés à rester unis.
Il semble que les deepfakes, même lorsqu'ils sont utilisés pour faire une version digne de rire du traditionnel de la reine Elizabeth II Discours de Noël, ont tendance à faire surgir en nous un sentiment troublant.
Peut-être que nous savoir au fond que la technologie est beaucoup plus susceptible d'être utilisée avec une intention malveillante. Alors, que se passera-t-il lorsqu'il deviendra si avancé que nous ne pourrons plus faire la différence entre la réalité et la fiction ?
Avec des applications téléchargeables gratuitement comme Facemega, devrions-nous craindre que la technologie deepfake ne devienne largement disponible via nos smartphones ?
Je dirais que, malheureusement, nous devrions l'être.