Der Empfehlungsalgorithmus von YouTube ist Berichten zufolge schuldig, Videos mit Fehlinformationen, Gewalt, Hassreden und anderen Inhalten zu teilen, die gegen seine eigenen Richtlinien verstoßen.
Mit mehr als 2 Milliarden monatlichen Besuchern und einer Milliarde Stunden täglich angesehener Inhalte bleibt YouTube auch 2021 das unbestrittene Mekka für langformatige Videoinhalte.
Abgesehen davon, dass wir unsere Lieblingskanäle auf Loop schalten, taumeln viele von uns über den empfohlenen Algorithmus der Plattform von Video zu Video – was immer noch in langanhaltende Kontroversen verwickelt ist.
Die Codierung hinter dieser Empfehlungsfunktion soll uns so lange wie möglich an YouTube binden, ist aber in den letzten Jahren unter Beschuss geraten, weil sie Zuschauer zu Inhalten gedrängt hat voller Spekulationen und Fakten beleuchten.
Wir sind alle von diesen knalligen Thumbnails in Verschwörungsvideos in Versuchung geraten, oder? Was meinst du nicht?
Fahren 70% von dem, was Nutzer sehen, hat dieses maschinelle Lernsystem YouTube in letzter Zeit mehrmals in heißem Wasser gelandet.
Trotz mehrerer Erklärungen, dass sie daran arbeitet, "maßgebliche und beliebte Videos" zu fördern, deuten diese Woche auftauchende Berichte darauf hin, dass die Plattform Noch Werbung für Videos mit vielen Fehlinformationen, Gewalt, Hassreden und anderen Inhalten, die gegen die eigenen Richtlinien verstoßen.
Die Mozilla Foundation, eine amerikanische Non-Profit-Organisation hinter dem Firefox-Webbrowser, leitete ein Crowdsourcing-Untersuchung um herauszufinden, wie viel Fortschritt YouTube in dieser Hinsicht macht.
Das Ausmaß des Problems heute
Beeindruckenderweise gelang es Mozilla, von Juli letzten Jahres bis Mai 37,000 2021 YouTube-Nutzer zu versammeln, die als Wachhunde auf der Suche nach schädlichen oder extremen Inhalten fungieren.
Diejenigen, die in Empfehlungen über Videos stolperten, die zuvor wegen Fehlinformationen, politischen Verschwörungstheorien, gewalttätigen/grafischen Inhalten oder sexualisierten Inhalten, die als Kindercartoons getarnt waren, hätten erwischt werden sollen, wurden durch „Bedauernsberichte“ zur Kenntnis genommen.
In einem speziellen Browser-Formular, das schließlich zur Analyse an die University of Exeter gesendet wurde, wurden 3,362 Fälle von „bedauerlichen“ Videos aus 91 verschiedenen Ländern aufgezeichnet. 71 % dieser Berichte stammen direkt von zufälligen Vorschlägen, die vom YouTube-Algorithmus gesendet wurden.
9% der in dieser Studie aufgenommenen Videos – insgesamt 189 Videos – wurden später von YouTube entfernt, wobei viele von ihnen zuvor den Besuchern der Website empfohlen wurden. Beunruhigenderweise generierten gemeldete Videos pro Tag rund 70 % mehr Aufrufe als solche aus aktiven Suchen.
"Das ist einfach bizarr", sagte Brandi Geurkink, Senior Manager of Advocacy bei Mozilla. "Der Empfehlungsalgorithmus arbeitete tatsächlich gegen ihre eigenen Fähigkeiten, die Plattform zu überwachen."
Länder, die normalerweise kein Englisch als Hauptsprache sprechen, registrierten Meldungen mit einer um 60 % höheren Rate als diejenigen, die dies tun – insbesondere in Brasilien, Deutschland und Frankreich.
Angesichts des weltweiten Impfstoffansturms im letzten Jahr überrascht es nicht, dass Fehlinformationen die Mehrheit der bedauerlichen Berichte insgesamt ausmachten.