Instagramは、若者にとってより安全なプラットフォームになるために、自傷行為に関連するコンテンツの禁止を拡大して、漫画、絵、ミームをカバーすることを約束しました。
今週 Instagram 自傷行為や自殺を描いたすべての画像、図、漫画、ミームにフラグを付けて削除する計画を確認しました。彼らは、プラットフォームを若いユーザーにとって可能な限り安全にするための取り組みを強化しています。
インスタは、今日、若者のための「行く」ソーシャルハブとして広く知られており、世界中の70〜13歳の17%以上が個人のプロフィールを所有しています。 萌え。 その結果、Facebookが所有するネットワークは、メディア、慈善団体、および一般の人々から、有害または強制的なコンテンツにさらされることからユーザーを適切に保護するようにという圧力が高まっています。
この最新の動きは、プラットフォームでグラフィックコンテンツを表示した後、自分の命を奪った英国の2017代のモリーラッセルがXNUMX年に悲劇的な死を遂げて以来、取られた多くの予防策のXNUMXつです。 XNUMX月以降、InstaのチーフAdam Mosseriは、静止画や動画などの自殺をテーマにしたコンテンツの流通を制限することに注力してきました。 しかし、キャンペーン担当者は、さらなる作業を行う必要があると主張しています。
フロリダを拠点とするインターネットの安全運動家 フリーヘス博士 インスタの努力にもかかわらず、有害なコンテンツがまだプラットフォーム上に広がっていることを明らかにし、ニュージャージーでのオンラインの安全性に関する講義で、参加者に自殺を主張する無制限のグラフィック写真、ビデオ、ミームの複数の例を示しました。
それに応えて、インスタは ステートメント 2019年の第834,000四半期以降、「削除された資料」の量が77倍になり、XNUMXのコンテンツが拒否されたと主張しています。そのうち、XNUMX%はユーザーから積極的に報告されていません。 Mosseriは、「やるべきことがもっと明らかにある」と認め、「仕事は決して終わらない」と宣言しました。