Algoritme rekomendasi YouTube dilaporkan bersalah karena membagikan video yang menampilkan misinformasi, kekerasan, ujaran kebencian, dan konten lain yang melanggar kebijakannya sendiri.
Dengan lebih dari 2 miliar pengunjung bulanan, dan satu miliar jam konten dilihat setiap hari, YouTube tetap menjadi kiblat konten video berdurasi panjang yang tak terbantahkan pada tahun 2021.
Di luar binging saluran favorit kami secara berulang, banyak dari kami beralih dari video ke video melalui algoritme yang direkomendasikan platform – yang masih terlibat dalam kontroversi jangka panjang.
Pengkodean di balik fitur rekomendasi ini dirancang untuk membuat kami tetap terpaku pada YouTube selama mungkin, tetapi telah mendapat kecaman dalam beberapa tahun terakhir karena mendorong pemirsa ke konten penuh dengan spekulasi dan ringan pada fakta.
Kita semua tergoda oleh gambar mini mencolok di video konspirasi, bukan? Apa maksudmu tidak?
Penggerak 70% dari apa yang ditonton pengguna, sistem pembelajaran mesin ini telah membuat YouTube dibanjiri air panas beberapa kali baru-baru ini.
Terlepas dari beberapa pernyataan bahwa itu berfungsi untuk mempromosikan 'video otoritatif dan populer,' laporan yang muncul minggu ini menunjukkan bahwa platform tersebut masih mempromosikan video yang berisi misinformasi, kekerasan, ujaran kebencian, dan konten lain yang melanggar kebijakannya sendiri.
Mozilla Foundation, sebuah organisasi nirlaba Amerika di belakang browser web Firefox, memimpin sebagai investigasi crowdsourced untuk mengetahui secara pasti seberapa besar kemajuan yang dicapai YouTube di bidang tersebut.
Luasnya masalah hari ini
Secara mengesankan, Mozilla berhasil mengumpulkan 37,000 pengguna YouTube untuk bertindak sebagai pengawas dalam pencarian konten berbahaya atau ekstrem dari Juli tahun lalu hingga Mei 2021.
Mereka yang menemukan video dalam rekomendasi yang seharusnya sudah diketahui sebelumnya karena informasi yang salah, teori konspirasi politik, konten kekerasan/grafis, atau konten seksual yang disamarkan sebagai kartun anak-anak, dicatat melalui 'laporan penyesalan'.
Dalam bentuk browser khusus yang akhirnya dikirim untuk dianalisis di University of Exeter, 3,362 contoh video 'menyesalkan' direkam dari 91 negara berbeda. 71% dari laporan ini datang langsung dari saran acak yang didorong oleh algoritme YouTube.
9% dari video yang direkam dalam penelitian ini – total 189 video – kemudian dihapus oleh YouTube, dengan banyak di antaranya sebelumnya direkomendasikan kepada mereka yang menjelajahi situs. Yang mengkhawatirkan, video yang dilaporkan menghasilkan sekitar 70% lebih banyak penayangan per hari daripada video dari penelusuran aktif.
'Itu sangat aneh,' kata manajer senior advokasi Mozilla, Brandi Geurkink. 'Algoritme rekomendasi sebenarnya bekerja melawan kemampuan mereka sendiri untuk mengawasi platform.'
Negara-negara yang biasanya tidak berbicara bahasa Inggris sebagai bahasa utama mencatat laporan pada tingkat 60% lebih tinggi daripada mereka yang melakukannya – terutama di Brasil, Jerman, dan Prancis.
Tidak mengherankan, mengingat serbuan vaksin global selama setahun terakhir, informasi yang salah menjadi mayoritas laporan yang disesalkan secara keseluruhan.