Menu Menu

O TikTok não está protegendo os usuários jovens

Despertando novas preocupações sobre a influência da plataforma nas crianças, uma nova pesquisa descobriu que seu algoritmo está enviando vídeos sobre distúrbios alimentares e automutilação para crianças de 13 anos.

De acordo com uma pesquisa do Center for Countering Digital Hate (CCDH), o TikTok parece estar enviando vídeos sobre distúrbios alimentares e automutilação para crianças a partir dos 13 anos.

A estudo, que analisou o poderoso algoritmo da plataforma, encontrou contas promovendo o suicídio em 2.6 minutos e outras recomendando clipes pró-magreza explícitos em oito.

Os pesquisadores descobriram que as páginas para você de contas que eles criaram com características de adolescentes vulneráveis ​​foram inundadas com conteúdo dessa natureza doze vezes mais do que contas padrão.

Isso acendeu novas preocupações sobre a influência do aplicativo em usuários impressionáveis.

Ele vem como legisladores estaduais e federais nos EUA buscar maneiras de reprimir no TikTok sobre privacidade e medos de segurança, bem como determinar independente da resposta a plataforma é apropriada para adolescentes.

Também segue um série de investigações de setembro até a falha do TikTok em informar sua base de usuários de 25% de 10 a 19 anos de idade que estava processando seus dados sem consentimento ou os fundamentos legais necessários.

Depois disso, a empresa prometeu mudar, mas as últimas descobertas da CCDH sugerir o contrário.

“Os resultados são o pesadelo de todos os pais: os feeds dos jovens são bombardeados com conteúdo prejudicial e angustiante que pode ter um impacto cumulativo significativo em sua compreensão do mundo ao seu redor e em sua saúde física e mental”, escreveu Imran Ahmed, CEO da CCDH, no relatório intitulado Mortal por Design.

'Isso ressalta a necessidade urgente de reforma dos espaços online. Sem supervisão, a plataforma opaca do TikTok continuará a lucrar ao servir a seus usuários – crianças a partir dos 13 anos, lembre-se – conteúdo cada vez mais intenso e angustiante sem verificações, recursos ou suporte.'

Em resposta, o TikTok contestou as alegações, enfatizando que a metodologia do estudo não "refletia o comportamento genuíno ou as experiências de visualização de pessoas reais".

Conforme enfatizado por um de seus porta-vozes, o aplicativo consulta regularmente especialistas em saúde, remove violações de políticas e fornece acesso a recursos de suporte para qualquer pessoa que deles precise.

“Estamos cientes de que o conteúdo de gatilho é único para cada indivíduo e continuamos focados em promover um espaço seguro e confortável para todos, incluindo pessoas que optam por compartilhar suas jornadas de recuperação ou educar outras pessoas sobre esses tópicos importantes”, disseram eles.

O TikTok acrescentou que continua lançando novos proteções para seus usuários, incluindo controles parentais e maneiras de filtrar vídeos adultos ou "potencialmente problemáticos" que exploram "temas complexos".

Independentemente disso, Ahmed acredita que os funcionários do governo devem assumir o controle dessa questão.

“Este é um momento clássico para os reguladores intervirem e dizerem que precisamos ter algum tipo de acordo de não proliferação, que não vamos apenas criar algoritmos cada vez mais viciantes e cada vez mais letais”, diz ele.

'Mas não temos isso, não temos nada, não temos orientação do governo ou dos reguladores, da FTC, de qualquer outro lugar.'

Acessibilidade