Menu Menu

Le « Deep Fake Detection Challenge » de Facebook renvoie des données inquiétantes

Alors que l'élection présidentielle américaine de 2020 se profile, les sites de médias sociaux doivent se préparer à l'inévitable assaut du discours politique, et la détection de contenu diffamatoire est une priorité.

Si vous restez à jour avec Thred, alors c'est définitivement ne sera pas soyez la première fois que vous entendez parler de deepfakes. Cette technologie de manipulation de visage par IA a commencé avec des mèmes inoffensifs de Nicholas Cage il y a plusieurs années, mais a lentement évolué pour devenir une arme en ligne sérieuse qui pourrait menacer l'intégrité de la démocratie moderne.

Il était à l'origine utilisé pour remplir les subreddits avec des imitations amusantes de célébrités. Rapidement, la technologie a commencé à être mise en œuvre dans les discours présidentiels, les rassemblements électoraux et la propagande politique qui est devenue viral en ligne. Soudainement, les deepfakes pourraient être utilisés pour diffuser de la désinformation à l'échelle mondiale, affichant des chiffres du monde réel annonçant des choses qu'ils jamais vraiment dit. Les preuves vidéo fiables sont rapidement devenues une chose du passé - et les médias sociaux ont dû suivre le rythme.

Qu'il s'agisse d'applications de nouveauté sur les téléphones ou de logiciels plus secrets, les deepfakes deviennent plus faciles à créer et plus difficiles à détecter. Les sites les plus susceptibles d'héberger un tel contenu, comme Facebook, ont désormais la responsabilité de se tenir au courant des nouvelles avancées en matière de deepfakes afin de s'assurer qu'ils ne restent pas en ligne.

Comment Facebook s'attaque-t-il aux deepfakes ?

À la suite de deux affaires très médiatisées sur sa plate-forme – la diffamation du conférencier démocrate Nancy Pelosi et Mr Zuckerberg lui-même – Facebook a appelé les utilisateurs fin 2019 à renforcer ses efforts de détection de faux en profondeur via un « défi » public.

Les participants ont reçu 100,000 3000 courts clips contenant des images de XNUMX XNUMX acteurs engagés par Facebook. À partir de ce groupe, les participants ont été chargés d'identifier les échantillons qui avaient été falsifiés par Facebook à l'aide de leurs propres algorithmes de détection automatique personnalisés.

Près d'un an plus tard, nous avons enfin le résultats de ces tests sur dossier. 2000 participants ont mis leurs algorithmes à l'épreuve (les candidats étaient pour la plupart issus de l'industrie technologique ou avaient des antécédents universitaires), et l'échantillon le plus réussi a obtenu un taux de détection impressionnant de 82 %. Considérant la multitude d'exploits numériques qui entrent dans les contrefaçons profondes aujourd'hui ; flous, modifications de la fréquence d'images, superpositions, pour n'en nommer que quelques-uns… il faut dire que c'est un retour vraiment prometteur.

Le gagnant du défi, Selim Seferbekov, a reçu 500,000 XNUMX $ et a ensuite été chargé de confronter son algorithme gagnant à un ensemble de données de « boîte noire » rempli des formes les plus complexes de fausse tromperie profonde connues des experts en IA. Une fois le score finalisé et combiné avec les résultats précédents, une moyenne globale est ressortie à juste % 65.


Ces résultats devraient-ils être une préoccupation pour Facebook ?

Cette étude met en évidence à quel point il est vraiment difficile de repérer un deepfake dans la nature. Après tout, la nature adaptative de l'IA signifie que dès que les exploits existants sont fermés, de nouveaux peuvent surgir rapidement et c'est le retour à la case départ. C'est un jeu du chat et de la souris frustrant et sans fin.

Cependant, les chercheurs de Facebook sont convaincus que les données collectées à partir de ce test s'avéreront inestimables pour renforcer leur propre logiciel de prévention actuellement en cours. Facebook prévoit également de publier le code source des algorithmes les plus performants, dont celui de Seferbekov, afin d'aider d'autres chercheurs à détecter les fausses vidéos avant qu'elles ne deviennent virales.

Pour l'instant, Facebook joue intelligemment et garde secret son propre logiciel de détection pour empêcher toute forme de rétro-ingénierie d'apparaître en 2020. Directeur de la technologie Mike Schroepfer déclare qu'à l'heure actuelle, les deepfakes ne sont " pas un gros problème " avec Facebook, mais que lui et son équipe travaillent sans relâche pour éviter d'être " pris au dépourvu " dans la préparation des élections américaines de novembre.

Dans l'état actuel des choses, il reste à voir si nous sommes vraiment équipés pour faire face à la prochaine vague de contrefaçons profondes. Mais vous pouvez garantir une chose, c'est is à venir.

Accessibilité