Menu Menu

As 'recomendações' do YouTube continuam promovendo vídeos prejudiciais

O algoritmo de recomendação do YouTube é supostamente culpado de compartilhar vídeos com desinformação, violência, discurso de ódio e outros conteúdos que violam suas próprias políticas.

Com mais de 2 bilhões de visitantes mensais e um bilhão de horas de conteúdo visualizado todos os dias, o YouTube continua sendo a meca indiscutível do conteúdo de vídeo de formato longo em 2021.

Fora o binging de nossos canais favoritos em loop, muitos de nós pulamos de vídeo em vídeo por meio do algoritmo recomendado da plataforma - que ainda está envolvido em uma longa controvérsia.

A codificação por trás desse recurso de recomendação foi projetada para nos manter colados ao YouTube pelo maior tempo possível, mas tem sido criticada nos últimos anos por direcionar os espectadores ao conteúdo cheio de especulação e luz sobre os fatos.

Todos nós já fomos tentados por aquelas miniaturas espalhafatosas em vídeos de conspiração, certo? Como assim não?

Condução 70% do que os usuários assistem, esse sistema de aprendizado de máquina colocou o YouTube em maus lençóis várias vezes recentemente.

Apesar de várias declarações de que está trabalhando para promover 'vídeos confiáveis ​​e populares', os relatórios que surgiram esta semana sugerem que a plataforma é ainda promover vídeos com grande quantidade de desinformação, violência, discurso de ódio e outros conteúdos que violem suas próprias políticas.

Mozilla Foundation, uma organização sem fins lucrativos americana por trás do navegador Firefox, liderou um investigação crowdsourced para descobrir exatamente quanto progresso o YouTube está fazendo nessa frente.


A extensão do problema hoje

De forma impressionante, a Mozilla conseguiu reunir 37,000 usuários do YouTube para atuar como vigilantes na busca por conteúdo prejudicial ou extremo de julho do ano passado a maio de 2021.

Aqueles que tropeçaram em vídeos em recomendações que deveriam ter sido detectados antes por desinformação, teorias de conspiração política, conteúdo violento / explícito ou conteúdo sexualizado disfarçado de desenhos animados infantis, foram notados por meio de 'relatórios de arrependimento'.

Em um formulário de navegador dedicado que acabou sendo enviado para análise na Universidade de Exeter, 3,362 ocorrências de vídeos 'lamentáveis' foram gravados em 91 países diferentes. 71% desses relatórios vieram diretamente de sugestões aleatórias feitas pelo algoritmo do YouTube.

9% dos vídeos gravados neste estudo - um total de 189 vídeos - foram posteriormente removidos pelo YouTube, sendo muitos deles previamente recomendados para quem navegava no site. É preocupante que os vídeos relatados gerem cerca de 70% mais visualizações por dia do que as pesquisas ativas.

'Isso é simplesmente bizarro', afirmou o gerente sênior de defesa da Mozilla, Brandi Geurkink. 'O algoritmo de recomendação estava, na verdade, trabalhando contra suas próprias habilidades de policiar a plataforma.'

Os países que normalmente não falam inglês como idioma principal registraram relatórios com uma taxa 60% maior do que aqueles que o fazem - principalmente no Brasil, Alemanha e França.

Sem surpresa, dada a corrida global por vacinas no ano passado, a desinformação constituiu a maioria dos lamentáveis ​​relatórios em geral.


O que vem por aí para o YouTube?

Embora a validade deste estudo seja questionável (já que recrutou voluntários dispostos a participar e não uma amostra aleatória do público do YouTube), é claro que o YouTube ainda tem um problema de conteúdo considerável para enfrentar.

Tendo feito um relato Revisões 30 ao sistema de recomendação no último ano, o YouTube afirma que os vídeos sugeridos resultam em 200 milhões de visualizações por dia e mais de 80 bilhões de informações digitais. Isso é muito para manter o controle.

Com isso em mente, a Mozilla forneceu ao YouTube alguns conselhos que podem ajudar a limitar a carga, bem como dicas para aqueles que correm o risco de consumir conteúdo prejudicial.

Os autores do relatório acreditam que o YouTube deve estabelecer auditorias independentes de seus algoritmos para ajudar a encontrar uma solução abrangente e afirmaram que a transparência dos dados é fundamental para o YouTube. “Se o YouTube não nos liberar dados, podemos simplesmente pedir às pessoas que nos enviem”, afirmou Geurkink.

A Mozilla sugere que os formuladores de políticas devem agora exigir dados de desempenho de qualquer sistema automatizado capaz de amplificar o conteúdo em grande escala online. O YouTube, até agora, tem sido muito tímido em seu engajamento trimestral Métricas.

'Não podemos continuar a ter esse paradigma em que os pesquisadores levantam questões, as empresas dizem' OK, está resolvido 'e nós continuamos com nossas vidas', concluiu Geurkink.

Por último, e o mais importante, a Mozilla acredita que deveria haver uma opção de cancelar os recursos de personalização, como vídeos recomendados para nós, usuários.

Se você deseja limitar a possibilidade de qualquer indução de cliques ou visualização de gráficos aparecer durante sua próxima visita ao YouTube, a Mozilla aconselha revisar seu histórico de 'assistir' e 'pesquisar' e limpar tudo o que você não quiser que influencie as recomendações futuras.

O YouTube não é estranho à controvérsia, mas com este relatório no ar, ele terá que responder em grande estilo. Enquanto isso, navegue com segurança em todos.

Acessibilidade