Menu Menu

Les « recommandations » de YouTube continuent de diffuser des vidéos nuisibles

L'algorithme de recommandation de YouTube serait coupable d'avoir partagé des vidéos contenant de la désinformation, de la violence, des discours de haine et d'autres contenus en violation de ses propres politiques.

Avec plus de 2 milliards de visiteurs mensuels et un milliard d'heures de contenu visionné chaque jour, YouTube reste la Mecque incontestée du contenu vidéo long format en 2021.

En dehors de nos chaînes préférées en boucle, beaucoup d'entre nous passent de vidéo en vidéo via l'algorithme recommandé par la plate-forme – qui est toujours en proie à une longue controverse.

Le codage derrière cette fonctionnalité de recommandation est conçu pour nous garder collés à YouTube le plus longtemps possible, mais a été critiqué ces dernières années pour avoir poussé les téléspectateurs vers le contenu. en proie à la spéculation et lumière sur les faits.

Nous avons tous été tentés par ces vignettes criardes sur les vidéos de complot, n'est-ce pas ? Que veux tu dire par non?

Au volant 70% de ce que les utilisateurs regardent, ce système d'apprentissage automatique a récemment mis YouTube dans l'eau chaude à plusieurs reprises.

Malgré de multiples déclarations selon lesquelles elle s'efforce de promouvoir des "vidéos faisant autorité et populaires", des rapports publiés cette semaine suggèrent que la plate-forme est toujours promouvoir des vidéos lourdes de désinformation, de violence, de discours haineux et d'autres contenus en violation de ses propres politiques.

Mozilla Foundation, une organisation américaine à but non lucratif à l'origine du navigateur Web Firefox, a dirigé une enquête participative pour savoir exactement combien de progrès YouTube fait sur ce front.


L'ampleur du problème aujourd'hui

De manière impressionnante, Mozilla a réussi à rassembler 37,000 2021 utilisateurs de YouTube pour agir en tant que chiens de garde à la recherche de contenu préjudiciable ou extrême de juillet de l'année dernière à mai XNUMX.

Ceux qui sont tombés sur des vidéos dans des recommandations qui auraient dû être détectées auparavant pour désinformation, théories du complot politique, contenu violent/graphique ou contenu sexualisé déguisé en dessins animés pour enfants, ont été signalés par le biais de « rapports de regrets ».

Dans un formulaire de navigateur dédié qui a finalement été envoyé pour analyse à l'Université d'Exeter, 3,362 91 cas de vidéos « regrettables » ont été enregistrés dans 71 pays différents. XNUMX% de ces rapports provenaient directement de suggestions aléatoires poussées par l'algorithme de YouTube.

9% des vidéos enregistrées dans cette étude - un total de 189 vidéos - ont ensuite été supprimées par YouTube, beaucoup d'entre elles ayant déjà été recommandées à ceux qui parcourent le site. Il est inquiétant de constater que les vidéos signalées ont généré environ 70 % de vues en plus par jour que celles issues des recherches actives.

"C'est tout simplement bizarre", a déclaré Brandi Geurkink, directrice principale du plaidoyer chez Mozilla. "L'algorithme de recommandation fonctionnait en fait contre leurs propres capacités à contrôler la plate-forme."

Les pays qui ne parlent généralement pas l'anglais comme langue principale ont enregistré un taux 60 % plus élevé que ceux qui le font, en particulier au Brésil, en Allemagne et en France.

Sans surprise, étant donné la ruée mondiale vers les vaccins au cours de la dernière année, la désinformation a constitué la majorité des rapports regrettables dans l'ensemble.


Quelle est la prochaine étape pour YouTube ?

Bien que la validité de cette étude soit discutable (car elle a recruté des volontaires désireux de participer et non un échantillon aléatoire de l'audience de YouTube), il est clair que YouTube a toujours un problème de contenu important à résoudre.

Ayant fait un rapport Révisions 30 au système de recommandation au cours de la dernière année, YouTube déclare que les vidéos suggérées génèrent 200 millions de vues par jour et plus de 80 milliards d'informations numériques. C'est beaucoup pour rester au top.

Dans cet esprit, Mozilla a fourni à YouTube quelques conseils qui peuvent aider à limiter la charge, ainsi que des conseils pour ceux qui risquent de consommer du contenu préjudiciable.

Les auteurs du rapport pensent que YouTube devrait mettre en place des audits indépendants de ses algorithmes pour aider à trouver un correctif complet, et ont déclaré que la transparence des données est essentielle du côté de YouTube. "Si YouTube ne nous publie pas de données, nous pouvons simplement demander aux gens de nous les envoyer à la place", a déclaré Geurkink.

Mozilla suggère que les décideurs politiques devraient désormais exiger des données de performance de tout système automatisé capable d'amplifier le contenu à grande échelle en ligne. YouTube, à ce jour, a été très timide sur son engagement trimestriel métrique.

"Nous ne pouvons pas continuer à avoir ce paradigme où les chercheurs soulèvent des problèmes, les entreprises disent" OK, c'est résolu ", et nous continuons notre vie", a conclu Geurkink.

Enfin, et surtout, Mozilla pense qu'il devrait y avoir une option pour désactiver les fonctionnalités de personnalisation telles que les vidéos recommandées pour nous, les utilisateurs.

Si vous souhaitez limiter la possibilité d'apparition d'appâts à clics ou de visualisations graphiques lors de votre prochaine visite sur YouTube, Mozilla vous conseille de revoir votre historique de « regarder » et de « rechercher » et effacer tout ce que vous ne voulez pas influencer les futures recommandations.

YouTube n'est pas étranger à la controverse, mais avec ce rapport dans l'éther, il devra réagir de manière importante. En attendant, naviguez en toute sécurité.

Accessibilité