MENÜ MENÜ

Die „Empfehlungen“ von YouTube drängen immer noch zu schädlichen Videos

Der Empfehlungsalgorithmus von YouTube ist Berichten zufolge schuldig, Videos mit Fehlinformationen, Gewalt, Hassreden und anderen Inhalten zu teilen, die gegen seine eigenen Richtlinien verstoßen.

Mit mehr als 2 Milliarden monatlichen Besuchern und einer Milliarde Stunden täglich angesehener Inhalte bleibt YouTube auch 2021 das unbestrittene Mekka für langformatige Videoinhalte.

Abgesehen davon, dass wir unsere Lieblingskanäle auf Loop schalten, taumeln viele von uns über den empfohlenen Algorithmus der Plattform von Video zu Video – was immer noch in langanhaltende Kontroversen verwickelt ist.

Die Codierung hinter dieser Empfehlungsfunktion soll uns so lange wie möglich an YouTube binden, ist aber in den letzten Jahren unter Beschuss geraten, weil sie Zuschauer zu Inhalten gedrängt hat voller Spekulationen und Fakten beleuchten.

Wir sind alle von diesen knalligen Thumbnails in Verschwörungsvideos in Versuchung geraten, oder? Was meinst du nicht?

Fahren 70% von dem, was Nutzer sehen, hat dieses maschinelle Lernsystem YouTube in letzter Zeit mehrmals in heißem Wasser gelandet.

Trotz mehrerer Erklärungen, dass sie daran arbeitet, "maßgebliche und beliebte Videos" zu fördern, deuten diese Woche auftauchende Berichte darauf hin, dass die Plattform Noch Werbung für Videos mit vielen Fehlinformationen, Gewalt, Hassreden und anderen Inhalten, die gegen die eigenen Richtlinien verstoßen.

Die Mozilla Foundation, eine amerikanische Non-Profit-Organisation hinter dem Firefox-Webbrowser, leitete ein Crowdsourcing-Untersuchung um herauszufinden, wie viel Fortschritt YouTube in dieser Hinsicht macht.


Das Ausmaß des Problems heute

Beeindruckenderweise gelang es Mozilla, von Juli letzten Jahres bis Mai 37,000 2021 YouTube-Nutzer zu versammeln, die als Wachhunde auf der Suche nach schädlichen oder extremen Inhalten fungieren.

Diejenigen, die in Empfehlungen über Videos stolperten, die zuvor wegen Fehlinformationen, politischen Verschwörungstheorien, gewalttätigen/grafischen Inhalten oder sexualisierten Inhalten, die als Kindercartoons getarnt waren, hätten erwischt werden sollen, wurden durch „Bedauernsberichte“ zur Kenntnis genommen.

In einem speziellen Browser-Formular, das schließlich zur Analyse an die University of Exeter gesendet wurde, wurden 3,362 Fälle von „bedauerlichen“ Videos aus 91 verschiedenen Ländern aufgezeichnet. 71 % dieser Berichte stammen direkt von zufälligen Vorschlägen, die vom YouTube-Algorithmus gesendet wurden.

9% der in dieser Studie aufgenommenen Videos – insgesamt 189 Videos – wurden später von YouTube entfernt, wobei viele von ihnen zuvor den Besuchern der Website empfohlen wurden. Beunruhigenderweise generierten gemeldete Videos pro Tag rund 70 % mehr Aufrufe als solche aus aktiven Suchen.

"Das ist einfach bizarr", sagte Brandi Geurkink, Senior Manager of Advocacy bei Mozilla. "Der Empfehlungsalgorithmus arbeitete tatsächlich gegen ihre eigenen Fähigkeiten, die Plattform zu überwachen."

Länder, die normalerweise kein Englisch als Hauptsprache sprechen, registrierten Meldungen mit einer um 60 % höheren Rate als diejenigen, die dies tun – insbesondere in Brasilien, Deutschland und Frankreich.

Angesichts des weltweiten Impfstoffansturms im letzten Jahr überrascht es nicht, dass Fehlinformationen die Mehrheit der bedauerlichen Berichte insgesamt ausmachten.


Was kommt als nächstes für YouTube?

Während die Validität dieser Studie fraglich ist (da sie freiwillige Freiwillige rekrutierte und nicht eine zufällige Stichprobe des YouTube-Publikums), ist klar, dass YouTube immer noch ein erhebliches Inhaltsproblem zu bewältigen hat.

Nachdem ich eine Meldung gemacht habe 30-Überarbeitungen Zum Empfehlungssystem des letzten Jahres gibt YouTube an, dass vorgeschlagene Videos zu 200 Millionen Aufrufen pro Tag und mehr als 80 Milliarden digitalen Informationen führen. Das ist viel auf dem Laufenden zu halten.

Vor diesem Hintergrund hat Mozilla YouTube einige Ratschläge zur Verfügung gestellt, die helfen können, die Belastung zu begrenzen, sowie Tipps für diejenigen, die Gefahr laufen, schädliche Inhalte zu konsumieren.

Die Autoren des Berichts sind der Ansicht, dass YouTube unabhängige Audits seiner Algorithmen durchführen sollte, um eine umfassende Lösung zu finden, und erklärten, dass Datentransparenz von YouTube aus der Schlüssel ist. "Wenn YouTube uns keine Daten veröffentlicht, können wir die Leute einfach bitten, sie uns stattdessen zu senden", sagte Geurkink.

Mozilla schlägt vor, dass politische Entscheidungsträger jetzt Leistungsdaten von jedem automatisierten System verlangen sollten, das in der Lage ist, Inhalte in großem Umfang online zu erweitern. YouTube war bisher sehr zurückhaltend vierteljährliches Engagement Metriken.

"Wir können dieses Paradigma nicht beibehalten, in dem Forscher Probleme aufwerfen, Unternehmen sagen: "OK, es ist gelöst" und wir mit unserem Leben weitermachen", schloss Geurkink.

Schließlich und vor allem glaubt Mozilla, dass es eine Option geben sollte, Personalisierungsfunktionen wie empfohlene Videos für uns Benutzer zu deaktivieren.

Wenn Sie die Möglichkeit einschränken möchten, dass bei Ihrem nächsten Besuch auf YouTube animierende Clickbait- oder Grafikanzeigen angezeigt werden, empfiehlt Mozilla, Ihre 'Ansehen' und 'Suchen' Verlauf und löschen Sie alles, was Sie nicht möchten, um zukünftige Empfehlungen zu beeinflussen.

YouTube ist Kontroversen nicht fremd, aber mit diesem Bericht im Äther muss es in großem Stil reagieren. In der Zwischenzeit sicheres Surfen.

Zugänglichkeit