Sette famiglie fanno causa a Tik Tok in Francia
Sette famiglie francesi hanno intentato una causa contro TikTok. Il motivo? Aver esposto i loro figli adolescenti alla fruizione di contenuti dannosi. Contenuti che avrebbero portato due di questi a togliersi la vita a 15 anni. Ed altri cinque a tentare di farlo dopo aver visto i contenuti incriminati. Una delle ragazze a soffrire, invece, di anoressia. Secondo quanto riportato nella causa, il social – o meglio l’algoritmo sul quale è fondato – avrebbe proposto ai ragazzi dei video che promuovevano comportamenti o azioni pericolose, come l’autolesionismo, i disturbi alimentari e, appunto, il suicidio. E l’azienda non avrebbe adottato le misure necessarie per tutelare i minori. E’ questo che ha portato le sette famiglie ad intraprendere un’azione legale congiunta. Si tratterebbe del primo caso registratosi in Europa. Pertanto, ci si avvia verso quello che sarà il primo processo in tutta Europa a decidere su questo tema.
L’accusa è di istigazione al suicidio
Cosa chiedono i genitori è semplice, ed è il loro legale a precisarlo: che la responsabilità legale di TikTok venga riconosciuta in tribunale. Il social, così come tutti gli altri, non è nuovo a questo genere di attenzioni. Sono in molti a battersi da tempo affinché venga messo in atto un controllo più accurato sui contenuti presenti sull’app. Difatti, specie negli Stati Uniti, sono numerose le cause legali intentate da genitori e non con l’accusa di adescare e creare dipendenza in milioni di bambini. Tanto da causare loro danni psicologici più o meno gravi, fino a danneggiarne la salute mentale. Tra le ripercussioni negative più comuni c’è la ridotta autostima e una percezione distorta della realtà. L’alimentazione di confronti sociali e insicurezze dovuti alla visione di contenuti idealizzati. La dipendenza, che interferisce con il sonno e le prestazioni scolastiche. Fino all’esposizione al cyberbullismo e a contenuti inappropriati.
TikTok avrebbe suggerito contenuti violenti
Il collettivo Algos Victima, rappresentato dall’avvocata Laure Boutron-Marmion, ha denunciato che l’algoritmo della piattaforma TikTok avrebbe suggerito contenuti violenti, alcuni dei quali incitavano al suicidio, dopo che le ragazze avevano visualizzato video sull’immagine corporea e la dieta. Secondo quanto dichiarato da una delle madri a France Info, “L’algoritmo ha colto lo stile delle ricerche e ha suggerito altri contenuti, sempre peggiori, sulla depressione e sull’anoressia». Andando di fatto, come ha dichiarato la stessa, ad amplificare il malessere della figlia sottoponendola alla continua visione di video “che gli adolescenti della sua età non dovrebbero mai vedere”.
Cosa dice l’azienda
Secondo quanto riporta Europa.Today, i rappresentanti di Tik Tok avrebbero dichiarato di non avere “ricevuto alcuna notifica di procedimenti legali relativi a queste rivendicazioni”. Ma ha anche fatto sapere, tramite una dichiarazione pubblica, che “le linee guida della sua community non consentono di mostrare, promuovere o condividere piani di suicidio o autolesionismo” e che utilizzano una combinazione di tecnologia e moderazione per garantire il rispetto di tali standard.
Leggi anche:
- Studentessa dà fuoco al banco: voleva fare un video su TikTok
- Studente tira con la fionda in classe: il video finisce su TikTok
- Allarme insegnanti su TikTok: pubblicano video degli studenti
Foto apertura di cottonbro studio via Pexels