Instagram s'est engagé à étendre son interdiction du contenu lié à l'automutilation pour couvrir les dessins animés, les dessins et les mèmes dans sa tentative de devenir une plate-forme plus sûre pour les jeunes.
Cette semaine Instagram a confirmé son intention de signaler et de supprimer toutes les images, dessins, dessins animés et mèmes représentant toute forme d'automutilation ou de suicide alors qu'ils intensifient leurs efforts pour rendre leur plate-forme aussi sûre que possible pour les jeunes utilisateurs.
Insta est largement reconnu comme le centre social incontournable pour les jeunes de nos jours, avec plus de 70% des 13-17 ans dans le monde possédant des profils personnels selon pousses sociales. Et par conséquent, le réseau appartenant à Facebook subit une pression croissante de la part des médias, des organisations caritatives et du public pour s'assurer qu'ils protègent efficacement les utilisateurs contre l'exposition à des contenus préjudiciables ou coercitifs.
Cette dernière décision est l'une des nombreuses précautions prises depuis la mort tragique de l'adolescente britannique Molly Russell en 2017, qui s'est suicidée après avoir visionné du contenu graphique sur la plateforme. Depuis février, le chef d'Insta Adam Mosseri s'est concentré sur la restriction de la circulation du contenu à thèmes suicidaires, y compris les images fixes et les vidéos. Mais les militants maintiennent que davantage de travail doit être fait.
Militant de la sécurité sur Internet basé en Floride Dr Free Hess a révélé que, malgré les efforts d'Insta, du contenu préjudiciable se propageait toujours sur la plate-forme et a montré plusieurs exemples de photographies graphiques, de vidéos et de mèmes sans restriction prônant le suicide aux participants lors d'une conférence sur la sécurité en ligne dans le New Jersey.
En réponse, Insta a publié un déclaration affirmant qu'ils avaient doublé la quantité de « matériel supprimé » depuis le premier trimestre de 2019, en mettant prétendument leur veto à 834,000 77 éléments de contenu, dont XNUMX % n'avaient pas été activement signalés par les utilisateurs. Mosseri a concédé, « il y a très clairement plus de travail à faire » et a déclaré que le « travail ne finit jamais ».