Menu Menu

Le aziende tecnologiche non riescono a proteggere i bambini?

Con TikTok che deve affrontare una multa di 27 milioni di sterline per aver messo in pericolo i minori di 13 anni e un recente studio che ha scoperto che quasi la metà dei bambini britannici ha visto contenuti dannosi online, dobbiamo affrontare la minaccia rappresentata dalle piattaforme di social media e il loro palese disprezzo per il benessere dei giovani utenti. 

All'inizio di questa settimana è emersa la notizia che TikTok, con la sua base di utenti del 25% di età compresa tra 10 e 19 anni, è stato accusato di elaborare i dati di minori di 13 anni senza il consenso appropriato o le necessarie basi legali.

L'Information Commissioner's Office (ICO) ha emesso un avviso di intenti provvisorio, segnalando un avvertimento prima di una potenziale multa di 27 milioni di sterline.

Come affermato dall'ICO, TikTok non ha fornito le informazioni richieste a questa fascia demografica in modo conciso, trasparente e facilmente comprensibile tra il 2018 e il 2020.

Per questo motivo, l'organismo di vigilanza del Regno Unito ha avviato una serie di indagini su 50 diverse aziende che forniscono servizi digitali, che secondo quanto riferito non hanno preso abbastanza sul serio le proprie responsabilità in materia di sicurezza dei bambini.

"Vogliamo tutti che i bambini possano imparare e sperimentare il mondo digitale, ma con adeguate protezioni della privacy dei dati", ha affermato. "Le aziende che forniscono servizi digitali hanno il dovere legale di mettere in atto tali protezioni, ma la nostra opinione provvisoria è che TikTok non è riuscito a soddisfare tale requisito."

TikTok potrebbe subire una multa di 27 milioni di sterline per non aver protetto la privacy dei bambini | Posta quotidiana in linea

Ora, mentre l'ICO deve ancora trarre una conclusione finale, questa è non la prima volta TikTok è stato preso di mira per aver ignorato il benessere dei suoi giovani utenti.

Sebbene l'app abbia in gran parte evitato l'attenzione delle autorità di regolamentazione (con gran parte dell'attenzione riservata a Meta e Google) ormai da tempo, man mano che cresce in popolarità, cresce anche il controllo politico a cui è sottoposta.

In particolare nel Regno Unito, dove Ofcom ha scoperto che il 44% dei bambini dagli otto ai dodici anni utilizza TikTok, nonostante le sue politiche vietino a chiunque abbia meno di 13 anni di creare un account.

Tuttavia, non sono solo le violazioni dei dati a rappresentare una minaccia per la loro sicurezza, perché secondo a studio pubblicato giovedì scorso, quasi la metà dei bambini britannici si è imbattuto in materiale che riteneva dannoso o li ha preoccupati e sconvolti durante lo scorrimento.

Ciò include pornografia, immagini violente e sessualizzate, trolling anonimo e post che promuovono restrizioni dietetiche.

Molly Russell ha visto il post di Instagram relativo alla depressione prima di togliersi la vita, secondo le udienze della corte

La ricerca è stata condotta in seguito alla morte del 14enne Molly Russell, che si è suicidata nel novembre 2017 dopo aver visualizzato quantità eccessive di contenuti online relativi a suicidio, depressione, ansia e autolesionismo.

Una tragedia che Dame Rachel de Souza, commissaria per l'infanzia per l'Inghilterra, ha affermato di temere possa ripetersi a meno che non vengano presi immediatamente provvedimenti drastici per migliorare l'autoregolamentazione delle aziende tecnologiche.

"Questo contenuto non dovrebbe essere disponibile per i bambini di questa età e le aziende tecnologiche dovrebbero assicurarsi che venga rimosso", afferma De Souza.

"Ragazze di nove anni hanno raccontato al mio team le strategie che adottano quando gli estranei chiedono il loro indirizzo di casa online. In una stanza di ragazzi di 15 e 16 anni, a tre quarti era stato inviato il video di una decapitazione.'

Come spiega, i bambini raramente cercano questo contenuto. Al contrario, è promosso e offerto loro da algoritmi di raccomandazione altamente complessi, progettati per catturare e mantenere la loro attenzione.

Misure leader a livello mondiale per proteggere i bambini dall'accesso alla pornografia online - GOV.UK

E a peggiorare le cose, a causa della negligenza delle piattaforme che fanno poco per rispondere alle segnalazioni dei bambini su tali contenuti, la maggior parte ha smesso del tutto di segnalarli, affermando che "non ha senso".

Il sondaggio ha anche esaminato le ansie dei genitori riguardo a questo problema, con il 67% dei partecipanti che si è dichiarato profondamente preoccupato per l'impatto dei contenuti dannosi sulle giovani menti.

Su questa nota, De Souza è determinato a garantire che, andando avanti, il disegno di legge sulla sicurezza online e il Codice per i bambini dell'ICO lavorino di più per garantire che i giganti della tecnologia che traggono profitto dai giovani utilizzino adeguatamente quei fondi per proteggerli dai pericoli incommensurabili di Internet regali.

'L'autoregolamentazione da parte delle società tecnologiche è fallita; le esperienze di tanti bambini ne sono una testimonianza', conclude.

'Tuttavia abbiamo un'enorme opportunità per correggere questi torti attraverso il disegno di legge sulla sicurezza online e un'attenta regolamentazione da parte dell'Ofcom. È fondamentale che il disegno di legge mantenga al centro la sicurezza dei bambini.'

Accessibilità