Algorytm rekomendacji YouTube jest podobno winny udostępniania filmów zawierających dezinformację, przemoc, mowę nienawiści i inne treści, które naruszają jego własne zasady.
Z ponad 2 miliardami odwiedzających miesięcznie i miliardem godzin treści oglądanych każdego dnia, YouTube pozostaje niekwestionowaną mekką długich treści wideo w 2021 roku.
Poza zapętleniem naszych ulubionych kanałów, wielu z nas przeskakuje od wideo do wideo za pomocą zalecanego algorytmu platformy – który wciąż jest uwikłany w długotrwałe kontrowersje.
Kodowanie tej funkcji rekomendacji ma na celu utrzymanie nas jak najdłużej przyklejonych do YouTube, ale w ostatnich latach znalazło się pod ostrzałem za zachęcanie widzów do treści pełne spekulacji i światło na fakty.
Wszystkich nas kusiły te krzykliwe miniatury w filmach ze spiskami, mam rację? Co masz na myśli mówiąc nie?
Napędowy 70% tego, co oglądają użytkownicy, ten system uczenia maszynowego kilka razy ostatnio trafił na YouTube w gorącej wodzie.
Pomimo wielu oświadczeń, że działa na rzecz promowania „autorytatywnych i popularnych filmów”, raporty pojawiające się w tym tygodniu sugerują, że platforma jest nadal promuje filmy zawierające dezinformację, przemoc, szerzenie nienawiści i inne treści, które naruszają jego własne zasady.
Mozilla Foundation, amerykańska organizacja non-profit stojąca za przeglądarką Firefox, powołała do życia śledztwo crowdsourcingowe aby dowiedzieć się dokładnie, jakie postępy robi YouTube na tym froncie.
Zakres problemu dzisiaj
Imponujące, że Mozilla zdołała zgromadzić 37,000 2021 użytkowników YouTube, którzy od lipca ubiegłego roku do maja XNUMX r. pełnili funkcję strażników w poszukiwaniu szkodliwych lub ekstremalnych treści.
Ci, którzy natknęli się na filmy w rekomendacjach, które powinny zostać wcześniej przyłapane za dezinformację, polityczne teorie spiskowe, treści przedstawiające przemoc/grafikę lub treści o charakterze seksualnym podszywające się pod bajki dla dzieci, zostali odnotowani poprzez „raporty żalu”.
W specjalnym formularzu przeglądarki, który został ostatecznie przesłany do analizy na Uniwersytecie w Exeter, nagrano 3,362 przypadki „godnych pożałowania” filmów wideo z 91 różnych krajów. 71% tych raportów pochodziło bezpośrednio z losowych sugestii przesłanych przez algorytm YouTube.
9% filmów nagranych w tym badaniu – łącznie 189 filmów – zostało później usuniętych przez YouTube, a wiele z nich było wcześniej polecanych osobom przeglądającym witrynę. Co niepokojące, zgłoszone filmy generowały około 70% więcej wyświetleń dziennie niż te z aktywnych wyszukiwań.
„To po prostu dziwne”, stwierdził starszy menedżer ds. rzecznictwa w Mozilli, Brandi Geurkink. „Algorytm rekomendacji faktycznie działał na szkodę ich własnych możliwości kontrolowania platformy”.
Kraje, w których zwykle nie mówi się po angielsku jako podstawowym języku, zarejestrowały się w tempie 60% wyższym niż te, które to robią – szczególnie w Brazylii, Niemczech i Francji.
Nic dziwnego, że biorąc pod uwagę globalny pęd do szczepień w ciągu ostatniego roku, dezinformacja stanowiła większość godnych pożałowania raportów.