Menu Menu

Deepfakes: une menace croissante pour la démocratie

En 2019, les deepfakes sont passés d'un passe-temps relativement jovial à une grave menace éthique, calomniant les célébrités et perturbant la politique.

Au cas où vous n'êtes pas familier avec le terme « deepfake », il fait essentiellement référence à la manipulation vidéo et à la réplication de caractéristiques humaines à l'aide d'un logiciel centré sur les principes de l'intelligence artificielle, du suivi des visages et de l'apprentissage en profondeur.

En termes simples, c'est le processus d'imiter les traits de son visage et/ou sa voix pour avoir l'air/sonner réel.

Les réseaux constitués de nœuds interconnectés exécutent de manière autonome des calculs sur les données d'entrée. Avec suffisamment de « formation » des utilisateurs, ces nœuds commencent à s'organiser pour accomplir une tâche spécifique à l'utilisateur. C'est l'apprentissage en profondeur, et il est principalement utilisé pour marier une certaine nature de vidéo avec des images de célébrités, manifestant de manière convaincante un contenu bidon à la volée.

Alors que les programmes de cette nature ont peut-être commencé comme un passe-temps inoffensif sur les dernières pages d'Internet, ils ont maintenant été catapultés dans le grand public ; réutilisé comme un arme diffamatoire pour cibler des célébrités et des personnalités politiques.


Alors, par où tout a-t-il commencé?

Le terme « deepfake » provient d'un utilisateur anonyme de Reddit du même alias qui a pris de l'importance en 2017 en raison d'une série de fausses vidéos pornographiques de célébrités. Mis à part la boîte évidente de vers ouverts par ce contenu invasif et dérangeant, cela donnerait un aperçu des ramifications plus larges de la technologie - encore en cours de traitement aujourd'hui.

C'était le premier cas où un individu était capable de créer rapidement et simplement une imitation humaine convaincante et de haute qualité avec des moyens facilement disponibles. Ce n'était certainement pas le premier contenu « superposé » à pénétrer sur Internet, mais c'était le premier exemple d'un contenu créé si rapidement à l'aide de graphiques grand public.

« deepfake » abritait ces imitations de célébrités dans un seul sous-titre qu'il a créé, et peu de temps après sa conception, les membres ont commencé à apporter leurs propres modifications, principalement des clips vidéo amusants. Une section entière était consacrée à la manifestation de l'acteur toujours mémorable Nicholas Cage dans des films et des émissions de télévision aléatoires.


Le virage dangereux

As beaucoup ont prédit lors de la montée initiale des deepfakes, la technologie allait rapidement inciter à des pratiques plus douteuses sur le plan éthique.

En juin 2018, un programme informatique de création de deepfake, baptisé FakeApp, a pris de l'importance après avoir été mis à disposition pour le téléchargement – ​​il utilisait le même logiciel à l'origine colporté par le deepfake de Reddit.

Peu de temps après, plusieurs vidéos sont apparues impliquant des politiciens qui avaient l'intention de tromper les gens en leur faisant croire à des événements et à des déclarations fictifs. Notamment, un parti socialiste flamand nommé spa a publié une vidéo sur leur compte Twitter et Facebook montrant Donald Trump semblant narguer la Belgique pour son maintien dans l'accord de Paris sur le climat.

Alors que la contrefaçon a été détectée par la plupart des téléspectateurs, ceux qui ne sont pas au courant du deepfaking croyait que la vidéo était réelle. Suite à cette révélation, de nombreuses plateformes sociales, dont Twitter, Discord et Gfycat, ont explicitement interdit les deepfakes et toutes les communautés associées, Reddit emboîtant le pas peu de temps après… et Reddit dit rarement « non » à quoi que ce soit.

En juillet 2018, une interview éditée avec un représentant libéral des États-Unis Alexandrie Ocasio-Cortez est devenu viral, amassant plus de 4 millions de vues sur YouTube. L'interview originale a été falsifiée pour insérer un intervieweur différent, donnant l'impression qu'Ocasio-Cortez avait du mal à répondre aux questions de base. Cela ressemblait moins à une utilisation amusante de la technologie qu'à un stratagème pour salir la réputation d'Ocasio-Cortez.

Cet exemple particulier - bien qu'il ne s'agisse pas d'un deepfake conventionnel - a marqué la croissance de la technologie dans d'autres formes de modification vidéo, rendant les deepfakes d'autant plus difficiles à exposer.

En mai 2019, sans doute la calomnie numérique la plus efficace d'un fonctionnaire du gouvernement a fait surface sur Facebook. Une vidéo éditée mettant en vedette Democratic Speaker Nancy Pelosi, a recueilli plus de 2 millions de vues. Son discours a été considérablement ralenti, ce qui a donné l'impression que les téléspectateurs se sont interrogés sur l'état mental de Pelosi.

L'avocat personnel de Trump, Rudy Giuliani, a partagé la vidéo en la croyant réelle, confirmant ainsi les dangers possibles des logiciels deepfake.

Au grand dam de Guiliani, les modérateurs de Facebook refusé d'enlever le faux en raison des politiques concernant la liberté d'expression, en choisissant plutôt d'insérer des informations contextuelles dans la vidéo . Ironiquement, le cerveau de Facebook, Mark Zuckerberg, deviendrait la prochaine victime de la contrefaçon.

Le jeune milliardaire a été utilisé pour promouvoir une exposition de deepfakes nommée Spectre créée par l'artiste Bill Poster, avec la caricature numérique de Zuck faisant l'éloge de Spectre, s'exclamant qu'il " lui doit tout [son succès] ".

Sans surprise, Facebook a rapidement changé de position sur le processus de filtrage des vidéos contrefaites, signalant la publication, réduisant considérablement sa diffusion et son audience sur leur plateforme.


Que fait-on?

Ce mois-ci, les membres de la Chambre des représentants des États-Unis ont officiellement entendu témoignage entourant le récent afflux de deepfakes et examiné les menaces potentielles pour la sécurité nationale posées par le contenu modifié par l'IA.

Des experts techniques soutenus par Le Pentagone ont été déployés spécifiquement pour développer des moyens de détecter et de signaler les deepfakes, mais les résultats ont été mitigés. À la seconde où tout le fonctionnement interne des technologies de détection (principalement le suivi du visage) est révélé, les faussaires acquièrent un autre pied pour éviter la détection. La nature même de l'IA est de réviser et de s'adapter après tout.

Le plan de prévention le plus infaillible aujourd'hui consiste à s'attaquer à la législation et aux politiques des réseaux hôtes, les responsables fédéraux faisant pression pour un mouvement à l'échelle nationale pour interdire la désinformation numérique, et en particulier les deepfakes, d'ici 2020.


La division des opinions

Alors que des mesures évidentes sont prises pour empêcher les deepfakes, une grande partie des communauté en ligne estiment que cette répression menace notre droit à la liberté d'expression. La technologie n'est pas exploitée exclusivement pour des activités néfastes, elle est souvent utilisée pour la satire, l'art, la critique et la comédie. Pourtant, les responsables gouvernementaux affirment que les menaces potentielles dépassent de loin leur application créative.

La position ferme du gouvernement et son manque de marge de manœuvre sont cependant compréhensibles, compte tenu des graves implications que les deepfakes pourraient avoir sur notre sens de la démocratie.

Pour la génération plus âgée, qui est largement inconsciente de ces technologies, ces deepfakes pourraient éventuellement influencer leurs décisions dans l'investiture des représentants du gouvernement. Par exemple, une fausse vidéo pourrait montrer que Joe Biden est désobligeant envers les réfugiés, dissuadant les candidats de voter en sa faveur. Une fois que les récits politiques sont modifiés, ils sont notoirement difficiles à ramener.

De plus, les vidéos falsifiées signalées mettent du temps à filtrer à travers les systèmes de sécurité de la plupart des plateformes de médias sociaux, restant actives sur la chronologie des gens. Il est alors concevable que des opportunistes puissent pousser leurs agendas personnels avec de fausses vidéos à la veille d'élections importantes, et nous en serions tous parfaitement inconscients avant l'investiture.

Il y a aussi des implications qui vont au-delà de la politique. À mesure que la technologie devient de plus en plus avancée, nécessitant de moins en moins d'images pour reproduire les traits du visage, les deepfakes pourraient devenir la méthode de calomnie de prédilection. Pensez-y : nous avons des centaines de photos sur nos réseaux sociaux.

Qu'il s'agisse d'envoyer une fausse candidature vidéo à un travail au nom de quelqu'un d'autre, un discours injurieux/haine sur YouTube, ou même un faux message suicidaire, le risque d'endommager le contenu en ligne sera décuplé.

Cette énigme ne manquera pas de se développer alors que les plateformes sont aux prises avec des problèmes de consentement, de liberté d'expression et de prévention de la propagation de la désinformation, et nous serons là pour dévoiler les changements futurs.

Quelle est votre position personnelle sur les deepfakes ? Devraient-ils être supprimés entièrement ou simplement réglementés plus soigneusement ? Faites le nous savoir dans les commentaires.

Accessibilité