menu menu

TikTok gagal melindungi pengguna muda

Memicu kekhawatiran baru tentang pengaruh platform pada anak-anak, penelitian baru telah mengungkap bahwa algoritmenya mendorong video tentang gangguan makan dan menyakiti diri sendiri kepada anak berusia 13 tahun.

Menurut penelitian dari Center for Countering Digital Hate (CCDH), TikTok tampaknya mendorong video tentang gangguan makan dan tindakan menyakiti diri sendiri kepada anak-anak berusia 13 tahun.

Grafik belajar, yang menyelidiki algoritme platform yang kuat, menemukan akun yang mempromosikan bunuh diri dalam 2.6 menit, dan yang lainnya merekomendasikan klip pro-ketipisan eksplisit dalam delapan menit.

Para peneliti menemukan bahwa akun Halaman Untuk Anda yang mereka buat yang menampilkan karakteristik remaja rentan dibanjiri dengan konten seperti ini dua belas kali lebih dari akun standar.

Ini telah memicu kekhawatiran baru tentang pengaruh aplikasi pada pengguna yang mudah dipengaruhi.

Itu datang sebagai anggota parlemen negara bagian dan federal di AS mencari cara untuk menindak di TikTok karena masalah privasi dan keamanan, serta penentuan apakah atau tidak platform ini sesuai untuk remaja.

Ini juga mengikuti a rangkaian investigasi dari September hingga kegagalan TikTok untuk memberi tahu 25% basis pengguna berusia 10 hingga 19 tahun bahwa TikTok telah memproses data mereka tanpa persetujuan atau dasar hukum yang diperlukan.

Setelah itu perusahaan berjanji untuk berubah, tetapi temuan terbaru dari CCDH menyarankan sebaliknya.

"Hasilnya adalah mimpi buruk setiap orang tua: feed anak muda dibombardir dengan konten yang berbahaya dan mengerikan yang dapat memiliki dampak kumulatif yang signifikan pada pemahaman mereka tentang dunia di sekitar mereka, dan kesehatan fisik dan mental mereka," tulis Imran Ahmed, CEO CCDH, dalam laporan berjudul Mematikan oleh Desain.

'Ini menggarisbawahi kebutuhan mendesak untuk reformasi ruang online. Tanpa pengawasan, platform buram TikTok akan terus mendapat untung dengan melayani penggunanya – anak-anak semuda 13 tahun, ingat – konten yang semakin intens dan menyusahkan tanpa pemeriksaan, sumber daya, atau dukungan.'

Sebagai tanggapan, TikTok membantah klaim tersebut, menekankan bahwa metodologi penelitian tidak 'mencerminkan perilaku asli atau pengalaman menonton orang sungguhan.'

Seperti yang ditekankan oleh salah satu juru bicaranya, aplikasi tersebut secara teratur berkonsultasi dengan pakar kesehatan, menghapus pelanggaran kebijakan, dan menyediakan akses ke sumber daya yang mendukung bagi siapa saja yang membutuhkannya.

"Kami menyadari bahwa konten pemicu itu unik untuk setiap individu dan tetap fokus untuk mengembangkan ruang yang aman dan nyaman bagi semua orang, termasuk orang-orang yang memilih untuk berbagi perjalanan pemulihan mereka atau mengedukasi orang lain tentang topik penting ini," kata mereka.

TikTok menambahkan bahwa itu terus meluncurkan yang baru pengamanan bagi penggunanya, termasuk pengawasan orang tua dan cara memfilter video dewasa atau 'berpotensi bermasalah' dengan menjelajahi 'tema kompleks'.

Apapun, Ahmed percaya bahwa pejabat pemerintah harus mengambil alih masalah ini.

'Ini adalah momen klasik bagi regulator untuk turun tangan dan mengatakan kita perlu memiliki semacam perjanjian non-proliferasi, bahwa kita tidak akan hanya membuat algoritme yang semakin membuat ketagihan dan semakin mematikan,' katanya.

'Tapi kami tidak memiliki itu, kami tidak memiliki apa-apa, kami tidak memiliki panduan dari pemerintah atau dari regulator, dari FTC, dari tempat lain.'

Aksesibilitas