L'algorithme de recommandation de YouTube serait coupable d'avoir partagé des vidéos contenant de la désinformation, de la violence, des discours de haine et d'autres contenus en violation de ses propres politiques.
Avec plus de 2 milliards de visiteurs mensuels et un milliard d'heures de contenu visionné chaque jour, YouTube reste la Mecque incontestée du contenu vidéo long format en 2021.
En dehors de nos chaînes préférées en boucle, beaucoup d'entre nous passent de vidéo en vidéo via l'algorithme recommandé par la plate-forme – qui est toujours en proie à une longue controverse.
Le codage derrière cette fonctionnalité de recommandation est conçu pour nous garder collés à YouTube le plus longtemps possible, mais a été critiqué ces dernières années pour avoir poussé les téléspectateurs vers le contenu. en proie à la spéculation et lumière sur les faits.
Nous avons tous été tentés par ces vignettes criardes sur les vidéos de complot, n'est-ce pas ? Que veux tu dire par non?
Au volant 70% de ce que les utilisateurs regardent, ce système d'apprentissage automatique a récemment mis YouTube dans l'eau chaude à plusieurs reprises.
Malgré de multiples déclarations selon lesquelles elle s'efforce de promouvoir des "vidéos faisant autorité et populaires", des rapports publiés cette semaine suggèrent que la plate-forme est toujours promouvoir des vidéos lourdes de désinformation, de violence, de discours haineux et d'autres contenus en violation de ses propres politiques.
Mozilla Foundation, une organisation américaine à but non lucratif à l'origine du navigateur Web Firefox, a dirigé une enquête participative pour savoir exactement combien de progrès YouTube fait sur ce front.
L'ampleur du problème aujourd'hui
De manière impressionnante, Mozilla a réussi à rassembler 37,000 2021 utilisateurs de YouTube pour agir en tant que chiens de garde à la recherche de contenu préjudiciable ou extrême de juillet de l'année dernière à mai XNUMX.
Ceux qui sont tombés sur des vidéos dans des recommandations qui auraient dû être détectées auparavant pour désinformation, théories du complot politique, contenu violent/graphique ou contenu sexualisé déguisé en dessins animés pour enfants, ont été signalés par le biais de « rapports de regrets ».
Dans un formulaire de navigateur dédié qui a finalement été envoyé pour analyse à l'Université d'Exeter, 3,362 91 cas de vidéos « regrettables » ont été enregistrés dans 71 pays différents. XNUMX% de ces rapports provenaient directement de suggestions aléatoires poussées par l'algorithme de YouTube.
9% des vidéos enregistrées dans cette étude - un total de 189 vidéos - ont ensuite été supprimées par YouTube, beaucoup d'entre elles ayant déjà été recommandées à ceux qui parcourent le site. Il est inquiétant de constater que les vidéos signalées ont généré environ 70 % de vues en plus par jour que celles issues des recherches actives.
"C'est tout simplement bizarre", a déclaré Brandi Geurkink, directrice principale du plaidoyer chez Mozilla. "L'algorithme de recommandation fonctionnait en fait contre leurs propres capacités à contrôler la plate-forme."
Les pays qui ne parlent généralement pas l'anglais comme langue principale ont enregistré un taux 60 % plus élevé que ceux qui le font, en particulier au Brésil, en Allemagne et en France.
Sans surprise, étant donné la ruée mondiale vers les vaccins au cours de la dernière année, la désinformation a constitué la majorité des rapports regrettables dans l'ensemble.