Instagram 已承诺将其对自残相关内容的禁令扩大到卡通、绘画和模因,以期成为年轻人更安全的平台。
本星期 Instagram 确认其计划标记和删除所有描绘任何形式的自残或自杀的图像、图画、卡通和模因,因为他们正在努力使他们的平台对年轻用户尽可能安全。
Insta 被誉为当今年轻人的“首选”社交中心,全球超过 70% 的 13-17 岁青少年拥有个人资料。 sproutsocial. 因此,Facebook 拥有的网络承受着来自媒体、慈善组织和公众的越来越大的压力,以确保他们能够有效地保护用户免受有害或强制性内容的影响。
这一最新举措是自 2017 年英国少女莫莉·罗素 (Molly Russell) 惨死以来采取的众多预防措施之一,她在平台上观看了图片内容后自杀了。 自 XNUMX 月以来,Insta 负责人 Adam Mosseri 一直致力于限制具有自杀主题的内容的流通,包括剧照和视频。 但活动人士坚持认为需要做进一步的工作。
佛罗里达州的互联网安全活动家 弗里·赫斯博士 透露,尽管 Insta 做出了努力,但有害内容仍在平台上传播,并在新泽西州的在线安全讲座中向与会者展示了多个不受限制的图片、视频和模因主张自杀的例子。
作为回应,Insta 推出了一个 声明 声称自 2019 年第一季度以来,他们已将“删除的材料”数量增加了一倍,据称否决了 834,000 条内容——其中 77% 没有被用户主动报告。 Mosseri 承认,“显然还有更多工作要做”,并宣称“工作永无止境”。