Secondo quanto riferito, l'algoritmo di raccomandazione di YouTube è colpevole di condividere video con disinformazione, violenza, incitamento all'odio e altri contenuti in violazione delle sue stesse norme.
Con oltre 2 miliardi di visitatori mensili e un miliardo di ore di contenuti visualizzati ogni giorno, YouTube rimane la mecca indiscussa dei contenuti video di lunga durata nel 2021.
Al di fuori del loop dei nostri canali preferiti, molti di noi barcollano da un video all'altro tramite l'algoritmo consigliato dalla piattaforma, che è ancora coinvolto in controversie di lunga durata.
La codifica alla base di questa funzione di raccomandazione è progettata per tenerci incollati a YouTube il più a lungo possibile, ma negli ultimi anni è stata criticata per aver spinto gli spettatori verso i contenuti pieno di speculazioni e luce sui fatti.
Siamo stati tutti tentati da quelle sgargianti miniature sui video della cospirazione, giusto? Cosa vuoi dire no?
Guida 70% di ciò che gli utenti guardano, questo sistema di apprendimento automatico ha atterrato YouTube in acque calde diverse volte di recente.
Nonostante le molteplici affermazioni che sta lavorando per promuovere "video autorevoli e popolari", i rapporti che emergono questa settimana suggeriscono che la piattaforma è ancora promuovere video ricchi di disinformazione, violenza, incitamento all'odio e altri contenuti che violano le sue stesse norme.
Mozilla Foundation, un'organizzazione no-profit americana dietro il browser web Firefox, ha guidato un indagine crowdsourcing per scoprire esattamente quanti progressi sta facendo YouTube su questo fronte.
La portata del problema oggi
Sorprendentemente, Mozilla è riuscita a raccogliere 37,000 utenti di YouTube per agire come cani da guardia alla ricerca di contenuti dannosi o estremi da luglio dello scorso anno a maggio 2021.
Coloro che si sono imbattuti in video in raccomandazioni che avrebbero dovuto essere catturati in precedenza per disinformazione, teorie di cospirazione politica, contenuti violenti/espliciti o contenuti sessuali travestiti da cartoni animati per bambini, sono stati segnalati tramite "rapporti di rammarico".
In un modulo browser dedicato che è stato infine inviato per l'analisi all'Università di Exeter, sono state registrate 3,362 istanze di video "spiacevoli" da 91 paesi diversi. Il 71% di queste segnalazioni proveniva direttamente da suggerimenti casuali spinti dall'algoritmo di YouTube.
Il 9% dei video registrati in questo studio, per un totale di 189 video, è stato successivamente rimosso da YouTube, molti dei quali precedentemente consigliati a coloro che navigano nel sito. È preoccupante che i video segnalati abbiano generato circa il 70% in più di visualizzazioni al giorno rispetto a quelli provenienti da ricerche attive.
"Questo è semplicemente bizzarro", ha dichiarato il senior manager di Mozilla per l'advocacy Brandi Geurkink. "L'algoritmo di raccomandazione stava effettivamente lavorando contro le loro stesse capacità di sorvegliare la piattaforma."
I paesi che in genere non parlano inglese come lingua principale hanno registrato rapporti a un tasso superiore del 60% rispetto a quelli che lo parlano, in particolare in Brasile, Germania e Francia.
Non sorprende che, data la corsa globale ai vaccini nell'ultimo anno, la disinformazione abbia costituito la maggior parte delle segnalazioni deplorevoli in generale.