Menu Menu

Facebook lance un deep fake challenge

En partenariat avec Microsoft et plusieurs universités, le «défi de détection» vise à améliorer la capacité de l'IA à détecter le contenu faux en profondeur.

Vous avez probablement vu des « fausses nouvelles » partout sur Internet au cours des dernières années. Inventé par Trump lors de sa campagne électorale de 2016, le terme est devenu courant lorsqu'il s'agit de discuter de contenu en ligne – et de rejeter les critiques.

Alors que l'utilisation de l'expression par Trump a toujours été partisane (pour le moins), elle peut être utilisée de manière plus démocratique pour faire référence à une prise de conscience générale des préjugés des médias. Les experts conseillent continuellement que nous soyons vigilants lorsqu'il s'agit d'actualités et de propagande en ligne, en particulier compte tenu des inquiétudes concernant les bots russes et des entreprises telles que Cambridge Analytica qui utilisent à mauvais escient les données personnelles.

Cela ne se limite pas aux nouvelles et aux gros titres. Le phénomène de contrefaçon profonde s'est considérablement développé ces dernières années, car la technologie nécessaire pour le réaliser devient moins chère et plus facilement disponible. Nous avons déjà écrit sur sa croissance – et maintenant Facebook appelle le public à mieux le comprendre.

L'initiative s'appelle « The Deep Fake Detection Challenge » et est le fruit des efforts combinés de Facebook, Microsoft, de la coalition Partnership on AI et de sept universités. Il y a beaucoup de gros cerveaux derrière cela, en gros.

Les participants au défi seront sélectionnés et auront accès à une base de données de contrefaçons profondes, qui comprendront toutes des acteurs professionnels et consentants, et devront créer un logiciel capable de les distinguer avec précision des vidéos normales.

Facebook a publié un article de blog la semaine dernière qui a annoncé qu'il consacrait 10 millions de dollars au projet, avec des subventions et des prix décernés aux programmes les plus efficaces. Si vous êtes un codeur en herbe cherchant à jeter votre chapeau sur le ring, vous devrez attendre un peu – selon le site officiel de la FAQ, le défi ne commencera qu'à la fin de cette année.

Ce «défi» soulève certaines inquiétudes, d'autant plus que Facebook a été poussé à adopter une position plus ferme contre le contenu contrefait profond plus tôt cette année. Bill Posters a créé une vidéo convaincante de Mark Zuckerberg déclarant sinistrement son contrôle de « milliards de données de personnes » qui sont devenues virales. Alors que la prétention de Facebook de vouloir s'attaquer au problème des deep fakes est admirable - il n'y a actuellement aucun moyen de détecter les méthodes de deepfake dans les vidéos - nous devrions probablement nous méfier de donner à Facebook même PLUS pouvoir sur cette technologie encore non testée.

De plus, encourager le grand public à se renseigner sur la façon de créer, distribuer et détecter les contrefaçons profondes pourrait ouvrir une boîte de vers et accélérer la prolifération du problème plutôt que de le ralentir. Si davantage de contenu vidéo deepfake entre dans le discours politique sur le Web, alors la capacité de distinguer les faits de la fiction et de raconter l'histoire dans son ensemble sera profondément menacée.

Nous devrons attendre et voir ce qu'il adviendra de ce défi, mais un point positif est que Facebook n'utilise pour le moins pas les données de ses utilisateurs. L'utilisation d'acteurs consentants pour les vidéos est un pas dans la bonne direction pour l'entreprise, et j'espère que nous verrons plus de respect pour nos données à l'avenir. Mes photos embarrassantes de 2012 devraient rester avec moi et seulement moi.

Accessibilité