Menú Menú

Las 'recomendaciones' de YouTube siguen promoviendo videos dañinos

Según los informes, el algoritmo de recomendación de YouTube es culpable de compartir videos con información errónea, violencia, incitación al odio y otros contenidos que violan sus propias políticas.

Con más de 2 mil millones de visitantes mensuales y mil millones de horas de contenido visto todos los días, YouTube sigue siendo la meca indiscutible del contenido de video de formato largo en 2021.

Aparte de poner en bucle nuestros canales favoritos, muchos de nosotros pasamos de un video a otro a través del algoritmo recomendado por la plataforma, que todavía está envuelto en una controversia de larga duración.

La codificación detrás de esta función de recomendación está diseñada para mantenernos pegados a YouTube el mayor tiempo posible, pero ha sido objeto de críticas en los últimos años por impulsar a los espectadores hacia el contenido. plagado de especulaciones y luz sobre los hechos.

Todos hemos sido tentados por esas llamativas miniaturas en videos de conspiración, ¿verdad? Que quieres decir no?

Conducción 70% De lo que ven los usuarios, este sistema de aprendizaje automático ha llevado a YouTube a un apuro en varias ocasiones recientemente.

A pesar de las múltiples declaraciones de que está trabajando para promover 'videos autorizados y populares', los informes que surgieron esta semana sugieren que la plataforma es aun promover videos con mucha desinformación, violencia, incitación al odio y otros contenidos en violación de sus propias políticas.

La Fundación Mozilla, una organización estadounidense sin fines de lucro detrás del navegador web Firefox, encabezó una investigación colaborativa para saber exactamente cuánto está progresando YouTube en ese frente.


El alcance del problema hoy

De manera impresionante, Mozilla logró reunir a 37,000 usuarios de YouTube para actuar como perros guardianes en la búsqueda de contenido dañino o extremo desde julio del año pasado hasta mayo de 2021.

Aquellos que tropezaron con videos en recomendaciones que deberían haber sido captados antes por desinformación, teorías de conspiración política, contenido violento / gráfico o contenido sexual disfrazado de dibujos animados infantiles, fueron notificados a través de 'informes de arrepentimiento'.

En un formulario de navegador dedicado que finalmente se envió para su análisis en la Universidad de Exeter, se grabaron 3,362 casos de videos 'lamentables' de 91 países diferentes. El 71% de estos informes provienen directamente de sugerencias aleatorias impulsadas por el algoritmo de YouTube.

El 9% de los videos grabados en este estudio, un total de 189 videos, fueron luego eliminados por YouTube, y muchos de ellos fueron recomendados previamente a quienes navegan por el sitio. Es preocupante que los videos reportados generen alrededor de un 70% más de vistas por día que los de búsquedas activas.

"Eso es simplemente extraño", declaró el gerente senior de defensa de Mozilla, Brandi Geurkink. "El algoritmo de recomendación en realidad estaba trabajando en contra de sus propias habilidades para vigilar la plataforma".

Los países que normalmente no hablan inglés como idioma principal registraron informes a una tasa un 60% más alta que los que sí lo hacen, especialmente en Brasil, Alemania y Francia.

Como era de esperar, dada la avalancha mundial de vacunas durante el último año, la información errónea constituyó la mayoría de los informes lamentables en general.


¿Qué sigue para YouTube?

Si bien la validez de este estudio es cuestionable (ya que reclutó voluntarios con la voluntad de participar y no una muestra aleatoria de la audiencia de YouTube), es evidente que YouTube todavía tiene un problema de contenido considerable con el que lidiar.

Habiendo hecho un informe 30 revisiones. Según el sistema de recomendaciones durante el último año, YouTube afirma que los videos sugeridos dan como resultado 200 millones de visitas al día y más de 80 mil millones de piezas de información digital. Esa es bastante para estar al tanto de.

Con esto en mente, Mozilla le ha brindado a YouTube algunos consejos que pueden ayudar a limitar la carga, así como consejos para quienes corren el riesgo de consumir contenido dañino.

Los autores del informe creen que YouTube debería establecer auditorías independientes de sus algoritmos para ayudar a encontrar una solución integral, y afirmaron que la transparencia de los datos es clave desde el final de YouTube. "Si YouTube no nos entrega datos, podemos simplemente pedirle a la gente que nos los envíe", declaró Geurkink.

Mozilla sugiere que los legisladores deberían ahora exigir datos de rendimiento de cualquier sistema automatizado capaz de amplificar el contenido a gran escala en línea. YouTube, hasta la fecha, ha sido muy tímido en su compromiso trimestral métrica.

"No podemos seguir teniendo este paradigma en el que los investigadores plantean problemas, las empresas dicen" Está bien, está resuelto "y seguimos con nuestras vidas", concluyó Geurkink.

Por último, y lo más importante, Mozilla cree que debería haber una opción para excluirse de las funciones de personalización, como los videos recomendados para nosotros, los usuarios.

Si desea limitar la posibilidad de que aparezca un cebo de clics o visualización gráfica durante su próxima visita a YouTube, Mozilla recomienda revisar su historial de 'mirar' y 'buscar' y borrar todo lo que no desee que influya en las recomendaciones futuras.

YouTube no es ajeno a la controversia, pero con este informe en el éter tendrá que responder a lo grande. Mientras tanto, navegación segura para todos.

Accesibilidad