Según los informes, el algoritmo de recomendación de YouTube es culpable de compartir videos con información errónea, violencia, incitación al odio y otros contenidos que violan sus propias políticas.
Con más de 2 mil millones de visitantes mensuales y mil millones de horas de contenido visto todos los días, YouTube sigue siendo la meca indiscutible del contenido de video de formato largo en 2021.
Aparte de poner en bucle nuestros canales favoritos, muchos de nosotros pasamos de un video a otro a través del algoritmo recomendado por la plataforma, que todavía está envuelto en una controversia de larga duración.
La codificación detrás de esta función de recomendación está diseñada para mantenernos pegados a YouTube el mayor tiempo posible, pero ha sido objeto de críticas en los últimos años por impulsar a los espectadores hacia el contenido. plagado de especulaciones y luz sobre los hechos.
Todos hemos sido tentados por esas llamativas miniaturas en videos de conspiración, ¿verdad? Que quieres decir no?
Conducción 70% De lo que ven los usuarios, este sistema de aprendizaje automático ha llevado a YouTube a un apuro en varias ocasiones recientemente.
A pesar de las múltiples declaraciones de que está trabajando para promover 'videos autorizados y populares', los informes que surgieron esta semana sugieren que la plataforma es aun promover videos con mucha desinformación, violencia, incitación al odio y otros contenidos en violación de sus propias políticas.
La Fundación Mozilla, una organización estadounidense sin fines de lucro detrás del navegador web Firefox, encabezó una investigación colaborativa para saber exactamente cuánto está progresando YouTube en ese frente.
El alcance del problema hoy
De manera impresionante, Mozilla logró reunir a 37,000 usuarios de YouTube para actuar como perros guardianes en la búsqueda de contenido dañino o extremo desde julio del año pasado hasta mayo de 2021.
Aquellos que tropezaron con videos en recomendaciones que deberían haber sido captados antes por desinformación, teorías de conspiración política, contenido violento / gráfico o contenido sexual disfrazado de dibujos animados infantiles, fueron notificados a través de 'informes de arrepentimiento'.
En un formulario de navegador dedicado que finalmente se envió para su análisis en la Universidad de Exeter, se grabaron 3,362 casos de videos 'lamentables' de 91 países diferentes. El 71% de estos informes provienen directamente de sugerencias aleatorias impulsadas por el algoritmo de YouTube.
El 9% de los videos grabados en este estudio, un total de 189 videos, fueron luego eliminados por YouTube, y muchos de ellos fueron recomendados previamente a quienes navegan por el sitio. Es preocupante que los videos reportados generen alrededor de un 70% más de vistas por día que los de búsquedas activas.
"Eso es simplemente extraño", declaró el gerente senior de defensa de Mozilla, Brandi Geurkink. "El algoritmo de recomendación en realidad estaba trabajando en contra de sus propias habilidades para vigilar la plataforma".
Los países que normalmente no hablan inglés como idioma principal registraron informes a una tasa un 60% más alta que los que sí lo hacen, especialmente en Brasil, Alemania y Francia.
Como era de esperar, dada la avalancha mundial de vacunas durante el último año, la información errónea constituyó la mayoría de los informes lamentables en general.