MENÜ MENÜ

TikTok schützt junge Nutzer nicht

Neue Untersuchungen haben neue Bedenken hinsichtlich des Einflusses der Plattform auf Kinder ausgelöst und ergeben, dass ihr Algorithmus Videos über Essstörungen und Selbstverletzungen an 13-Jährige weiterleitet.

Laut einer Studie des Center for Countering Digital Hate (CCDH) scheint TikTok Videos über Essstörungen und Selbstverletzungen für Kinder ab 13 Jahren zu veröffentlichen.

Das Studie, die sich mit dem leistungsstarken Algorithmus der Plattform befasste, fand innerhalb von 2.6 Minuten Accounts, die Selbstmord förderten, und andere, die explizite Pro-Dünnheits-Clips innerhalb von acht Minuten empfahlen.

Forscher entdeckten, dass die von ihnen eingerichteten „For You“-Seiten mit Merkmalen gefährdeter Teenager mit Inhalten dieser Art überschwemmt wurden zwölfmal mehr als Standardkonten.

Das hat ausgelöst frische Sorgen über den Einfluss der App auf beeinflussbare Benutzer.

Es kommt als staatlicher und föderaler Gesetzgeber in die USA nach Wegen suchen, um durchzugreifen auf TikTok über Datenschutz- und Sicherheitsbedenken sowie Ermittlungen ob oder nicht Die Plattform ist für Jugendliche geeignet.

Es folgt auch a Reihe von Untersuchungen vom September bis zum Versäumnis von TikTok, seine 25-prozentige Nutzerbasis von 10- bis 19-Jährigen darüber zu informieren, dass es ihre Daten ohne Zustimmung oder die erforderlichen rechtlichen Gründe verarbeitet hat.

Danach gelobte das Unternehmen, aber die neuesten Erkenntnisse aus dem CCDH zu ändern etwas anderes vorschlagen.

„Die Ergebnisse sind der Alptraum aller Eltern: Die Feeds junger Menschen werden mit schädlichen, erschütternden Inhalten bombardiert, die erhebliche kumulative Auswirkungen auf ihr Verständnis der Welt um sie herum und auf ihre körperliche und geistige Gesundheit haben können“, schrieb Imran Ahmed, CEO von CCDH. im Bericht mit dem Titel Tödlich durch Design.

„Dies unterstreicht die dringende Notwendigkeit einer Reform der Online-Räume. Ohne Aufsicht wird die undurchsichtige Plattform von TikTok weiterhin davon profitieren, indem sie ihren Benutzern – Kinder im Alter von 13, erinnern Sie sich – immer intensivere und beunruhigende Inhalte ohne Überprüfungen, Ressourcen oder Unterstützung bietet.“

Als Reaktion darauf hat TikTok die Behauptungen bestritten und betont, dass die Methodik der Studie nicht „das echte Verhalten oder die Seherfahrungen echter Menschen widerspiegelt“.

Wie einer ihrer Sprecher betonte, konsultiert die App regelmäßig Gesundheitsexperten, beseitigt Richtlinienverstöße und bietet allen, die sie benötigen, Zugang zu unterstützenden Ressourcen.

„Wir sind uns bewusst, dass das Auslösen von Inhalten für jeden Einzelnen einzigartig ist, und konzentrieren uns weiterhin darauf, einen sicheren und komfortablen Raum für alle zu schaffen, einschließlich Menschen, die sich dafür entscheiden, ihre Genesungsreisen zu teilen oder andere über diese wichtigen Themen aufzuklären“, sagten sie.

TikTok fügte hinzu, dass es weiterhin neue Produkte einführt Schutzmaßnahmen für seine Benutzer, einschließlich Kindersicherung und Möglichkeiten, nicht jugendfreie oder „potenziell problematische“ Videos herauszufiltern, die sich mit „komplexen Themen“ befassen.

Unabhängig davon glaubt Ahmed, dass Regierungsbeamte in dieser Angelegenheit das Steuer übernehmen sollten.

„Dies ist ein klassischer Moment für Regulierungsbehörden, um einzugreifen und zu sagen, dass wir eine Art Nichtverbreitungsabkommen haben müssen, dass wir nicht nur Algorithmen entwickeln werden, die immer suchterzeugender und immer tödlicher werden“, sagt er.

„Aber das haben wir nicht, wir haben nichts, wir haben keine Anleitung von der Regierung oder von Aufsichtsbehörden, von der FTC oder sonstwo.“

Zugänglichkeit