Алгоритм рекомендаций YouTube, как сообщается, виновен в публикации видео с дезинформацией, насилием, разжиганием ненависти и другим контентом в нарушение его собственной политики.
С более чем 2 миллиардами посетителей в месяц и миллиардом часов контента, просматриваемого каждый день, YouTube останется бесспорной Меккой длинного видеоконтента в 2021 году.
Помимо циклического перебора наших любимых каналов, многие из нас переключаются с видео на видео с помощью алгоритма, рекомендованного платформой, который до сих пор является предметом давних споров.
Код, стоящий за этой функцией рекомендаций, призван удерживать нас на YouTube как можно дольше, но в последние годы подвергся критике за то, что подталкивал зрителей к контенту. изобилует спекуляциями и осветить факты.
Мы все были соблазнены этими яркими миниатюрами видео с заговорами, верно? Что значит нет?
Вождение 70% Из того, что смотрят пользователи, эта система машинного обучения за последнее время несколько раз приводила YouTube в заблуждение.
Несмотря на многочисленные заявления о том, что она работает над продвижением «авторитетных и популярных видео», отчеты, появившиеся на этой неделе, предполагают, что платформа все еще продвигать видео, содержащие дезинформацию, насилие, разжигание ненависти и другой контент, в нарушение собственной политики.
Mozilla Foundation, американская некоммерческая организация, разработавшая веб-браузер Firefox, возглавила краудсорсинговое расследование чтобы точно узнать, насколько продвинулся YouTube в этом направлении.
Масштабы проблемы сегодня
Поразительно, но Mozilla удалось собрать 37,000 пользователей YouTube, которые с июля прошлого года по май 2021 года будут следить за поиском вредоносного или экстремального контента.
Те, кто наткнулся на видео с рекомендациями, которые должны были быть выявлены заранее за дезинформацию, теории политического заговора, насильственные / графические материалы или сексуализированный контент, замаскированный под детские мультфильмы, были отмечены с помощью «отчетов о сожалениях».
В специальной форме браузера, которая в конечном итоге была отправлена на анализ в Эксетерский университет, было записано 3,362 экземпляра «прискорбных» видео из 91 страны. 71% этих отчетов были получены непосредственно из случайных предложений, выдвинутых алгоритмом YouTube.
9% видео, записанных в этом исследовании - всего 189 видео - были позже удалены YouTube, при этом многие из них ранее были рекомендованы тем, кто просматривает сайт. Вызывает тревогу тот факт, что видео, о которых сообщают, получают примерно на 70% больше просмотров в день, чем в результате активного поиска.
«Это просто странно», - заявила старший менеджер Mozilla по защите интересов Брэнди Геуркинк. «Алгоритм рекомендаций фактически работал против их собственных возможностей контролировать платформу».
В странах, которые обычно не говорят на английском в качестве основного языка, зарегистрирован показатель на 60% выше, чем в тех, которые говорят, особенно в Бразилии, Германии и Франции.
Неудивительно, учитывая глобальный всплеск вакцинации в прошлом году, дезинформация составляла в целом большинство прискорбных отчетов.