O algoritmo de recomendação do YouTube é supostamente culpado de compartilhar vídeos com desinformação, violência, discurso de ódio e outros conteúdos que violam suas próprias políticas.
Com mais de 2 bilhões de visitantes mensais e um bilhão de horas de conteúdo visualizado todos os dias, o YouTube continua sendo a meca indiscutível do conteúdo de vídeo de formato longo em 2021.
Fora o binging de nossos canais favoritos em loop, muitos de nós pulamos de vídeo em vídeo por meio do algoritmo recomendado da plataforma - que ainda está envolvido em uma longa controvérsia.
A codificação por trás desse recurso de recomendação foi projetada para nos manter colados ao YouTube pelo maior tempo possível, mas tem sido criticada nos últimos anos por direcionar os espectadores ao conteúdo cheio de especulação e luz sobre os fatos.
Todos nós já fomos tentados por aquelas miniaturas espalhafatosas em vídeos de conspiração, certo? Como assim não?
Condução 70% do que os usuários assistem, esse sistema de aprendizado de máquina colocou o YouTube em maus lençóis várias vezes recentemente.
Apesar de várias declarações de que está trabalhando para promover 'vídeos confiáveis e populares', os relatórios que surgiram esta semana sugerem que a plataforma é ainda promover vídeos com grande quantidade de desinformação, violência, discurso de ódio e outros conteúdos que violem suas próprias políticas.
Mozilla Foundation, uma organização sem fins lucrativos americana por trás do navegador Firefox, liderou um investigação crowdsourced para descobrir exatamente quanto progresso o YouTube está fazendo nessa frente.
A extensão do problema hoje
De forma impressionante, a Mozilla conseguiu reunir 37,000 usuários do YouTube para atuar como vigilantes na busca por conteúdo prejudicial ou extremo de julho do ano passado a maio de 2021.
Aqueles que tropeçaram em vídeos em recomendações que deveriam ter sido detectados antes por desinformação, teorias de conspiração política, conteúdo violento / explícito ou conteúdo sexualizado disfarçado de desenhos animados infantis, foram notados por meio de 'relatórios de arrependimento'.
Em um formulário de navegador dedicado que acabou sendo enviado para análise na Universidade de Exeter, 3,362 ocorrências de vídeos 'lamentáveis' foram gravados em 91 países diferentes. 71% desses relatórios vieram diretamente de sugestões aleatórias feitas pelo algoritmo do YouTube.
9% dos vídeos gravados neste estudo - um total de 189 vídeos - foram posteriormente removidos pelo YouTube, sendo muitos deles previamente recomendados para quem navegava no site. É preocupante que os vídeos relatados gerem cerca de 70% mais visualizações por dia do que as pesquisas ativas.
'Isso é simplesmente bizarro', afirmou o gerente sênior de defesa da Mozilla, Brandi Geurkink. 'O algoritmo de recomendação estava, na verdade, trabalhando contra suas próprias habilidades de policiar a plataforma.'
Os países que normalmente não falam inglês como idioma principal registraram relatórios com uma taxa 60% maior do que aqueles que o fazem - principalmente no Brasil, Alemanha e França.
Sem surpresa, dada a corrida global por vacinas no ano passado, a desinformação constituiu a maioria dos lamentáveis relatórios em geral.