O Instagram se comprometeu a estender sua proibição de conteúdo relacionado à automutilação para cobrir desenhos, desenhos e memes em sua tentativa de se tornar uma plataforma mais segura para os jovens.
Esta semana Instagram confirmou seu plano de sinalizar e remover todas as imagens, desenhos, caricaturas e memes que retratam qualquer forma de automutilação ou suicídio enquanto aumentam os esforços para tornar sua plataforma o mais segura possível para os usuários jovens.
Insta é amplamente conhecido como o centro social 'go to' para jovens hoje em dia, com mais de 70% dos jovens de 13 a 17 anos em todo o mundo possuindo perfis pessoais de acordo com sproutsocial. E, como resultado, a rede de propriedade do Facebook está sob pressão crescente da mídia, organizações de caridade e do público para garantir que estejam protegendo habilmente os usuários contra a exposição a conteúdo prejudicial ou coercitivo.
Este último movimento é um dos muitos cuidados tomados desde a trágica morte da adolescente britânica Molly Russell em 2017, que tirou a própria vida após visualizar conteúdo gráfico na plataforma. Desde fevereiro, o chefe da Insta, Adam Mosseri, tem se concentrado em restringir a circulação de conteúdo com temas suicidas, incluindo fotos e vídeos. Mas os ativistas afirmam que mais trabalho precisa ser feito.
Ativista de segurança na Internet com base na Flórida Dr. Free Hess revelou que, apesar dos esforços da Insta, conteúdo nocivo ainda está se espalhando na plataforma e mostrou vários exemplos de fotos gráficas irrestritas, vídeos e memes defendendo o suicídio aos participantes de uma palestra sobre segurança online em Nova Jersey.
Em resposta, Insta lançou um afirmação alegando que dobraram a quantidade de 'material removido' desde o primeiro trimestre de 2019, supostamente vetando 834,000 peças de conteúdo - 77% dos quais não haviam sido denunciados ativamente pelos usuários. Mosseri reconheceu, 'há muito claramente mais trabalho a fazer' e declarou que o 'trabalho nunca termina'.