Menu Menu

Le "raccomandazioni" di YouTube continuano a promuovere video dannosi

Secondo quanto riferito, l'algoritmo di raccomandazione di YouTube è colpevole di condividere video con disinformazione, violenza, incitamento all'odio e altri contenuti in violazione delle sue stesse norme.

Con oltre 2 miliardi di visitatori mensili e un miliardo di ore di contenuti visualizzati ogni giorno, YouTube rimane la mecca indiscussa dei contenuti video di lunga durata nel 2021.

Al di fuori del loop dei nostri canali preferiti, molti di noi barcollano da un video all'altro tramite l'algoritmo consigliato dalla piattaforma, che è ancora coinvolto in controversie di lunga durata.

La codifica alla base di questa funzione di raccomandazione è progettata per tenerci incollati a YouTube il più a lungo possibile, ma negli ultimi anni è stata criticata per aver spinto gli spettatori verso i contenuti pieno di speculazioni e luce sui fatti.

Siamo stati tutti tentati da quelle sgargianti miniature sui video della cospirazione, giusto? Cosa vuoi dire no?

Guida 70% di ciò che gli utenti guardano, questo sistema di apprendimento automatico ha atterrato YouTube in acque calde diverse volte di recente.

Nonostante le molteplici affermazioni che sta lavorando per promuovere "video autorevoli e popolari", i rapporti che emergono questa settimana suggeriscono che la piattaforma è ancora promuovere video ricchi di disinformazione, violenza, incitamento all'odio e altri contenuti che violano le sue stesse norme.

Mozilla Foundation, un'organizzazione no-profit americana dietro il browser web Firefox, ha guidato un indagine crowdsourcing per scoprire esattamente quanti progressi sta facendo YouTube su questo fronte.


La portata del problema oggi

Sorprendentemente, Mozilla è riuscita a raccogliere 37,000 utenti di YouTube per agire come cani da guardia alla ricerca di contenuti dannosi o estremi da luglio dello scorso anno a maggio 2021.

Coloro che si sono imbattuti in video in raccomandazioni che avrebbero dovuto essere catturati in precedenza per disinformazione, teorie di cospirazione politica, contenuti violenti/espliciti o contenuti sessuali travestiti da cartoni animati per bambini, sono stati segnalati tramite "rapporti di rammarico".

In un modulo browser dedicato che è stato infine inviato per l'analisi all'Università di Exeter, sono state registrate 3,362 istanze di video "spiacevoli" da 91 paesi diversi. Il 71% di queste segnalazioni proveniva direttamente da suggerimenti casuali spinti dall'algoritmo di YouTube.

Il 9% dei video registrati in questo studio, per un totale di 189 video, è stato successivamente rimosso da YouTube, molti dei quali precedentemente consigliati a coloro che navigano nel sito. È preoccupante che i video segnalati abbiano generato circa il 70% in più di visualizzazioni al giorno rispetto a quelli provenienti da ricerche attive.

"Questo è semplicemente bizzarro", ha dichiarato il senior manager di Mozilla per l'advocacy Brandi Geurkink. "L'algoritmo di raccomandazione stava effettivamente lavorando contro le loro stesse capacità di sorvegliare la piattaforma."

I paesi che in genere non parlano inglese come lingua principale hanno registrato rapporti a un tasso superiore del 60% rispetto a quelli che lo parlano, in particolare in Brasile, Germania e Francia.

Non sorprende che, data la corsa globale ai vaccini nell'ultimo anno, la disinformazione abbia costituito la maggior parte delle segnalazioni deplorevoli in generale.


Quali sono le prospettive per YouTube?

Sebbene la validità di questo studio sia discutibile (in quanto ha reclutato volontari con la volontà di partecipare e non un campione casuale del pubblico di YouTube), è chiaro che YouTube ha ancora un problema di contenuto considerevole da affrontare.

Avendo fatto una segnalazione Revisioni 30 al sistema di raccomandazione nell'ultimo anno, YouTube afferma che i video suggeriti generano 200 milioni di visualizzazioni al giorno e oltre 80 miliardi di informazioni digitali. Quello è Un sacco da tenere d'occhio.

Con questo in mente, Mozilla ha fornito a YouTube alcuni consigli che possono aiutare a limitare il carico, nonché suggerimenti per coloro che rischiano di consumare contenuti dannosi.

Gli autori del rapporto ritengono che YouTube dovrebbe istituire audit indipendenti dei suoi algoritmi per aiutare a trovare una soluzione completa e ha affermato che la trasparenza dei dati è fondamentale per la fine di YouTube. "Se YouTube non ci rilascerà i dati, possiamo semplicemente chiedere alle persone di inviarceli", ha affermato Geurkink.

Mozilla suggerisce che i responsabili delle politiche dovrebbero ora richiedere dati sulle prestazioni da qualsiasi sistema automatizzato in grado di amplificare i contenuti su larga scala online. YouTube, fino ad oggi, è stato molto schivo sul suo impegno trimestrale metrica.

"Non possiamo continuare ad avere questo paradigma in cui i ricercatori sollevano problemi, le aziende dicono "OK, è risolto" e andiamo avanti con le nostre vite", ha concluso Geurkink.

Infine, e soprattutto, Mozilla ritiene che dovrebbe esserci un'opzione per disattivare le funzionalità di personalizzazione come i video consigliati per noi utenti.

Se desideri limitare la possibilità che qualsiasi clickbait incitante o visualizzazione grafica compaia durante la tua prossima visita a YouTube, Mozilla consiglia di rivedere il tuo 'guarda' e 'cerca' la cronologia e cancellare tutto ciò che non vuoi influenzare i consigli futuri.

YouTube non è estraneo alle polemiche, ma con questo rapporto nell'etere dovrà rispondere alla grande. Nel frattempo, buona navigazione a tutti.

Accessibilità