Implementare misure contro la sessualizzazione dei minori su TikTok


Implementare misure contro la sessualizzazione dei minori su TikTok
Il problema
Il problema
TikTok è una piattaforma usata ogni giorno da milioni di giovani.
Proprio per questo non può continuare a trattare come semplici “balli”, “trend” o “contenuti innocui” video in cui ragazze e ragazzi giovani, o dall’età non chiaramente verificabile, espongono la propria immagine in modo sessualizzato.
Il problema non riguarda solo i commenti. I commenti sono la conseguenza visibile.
Il problema nasce prima: contenuti costruiti sull’esposizione del corpo vengono pubblicati, premiati dall’algoritmo, salvati, ricondivisi e normalizzati davanti a un pubblico enorme, spesso composto anche da adulti.
Molti giovani non comprendono davvero le conseguenze di ciò che pubblicano online.
Un video può essere salvato, trasformato in screenshot, ricondiviso fuori contesto, finire in gruppi privati, essere usato per derisione, molestie, ricatti, sexualizzazione, cyberbullismo o danni futuri alla reputazione personale, scolastica e lavorativa.
Ancora più grave è il fatto che molte segnalazioni inviate a TikTok per contenuti di questo tipo vengono chiuse con la risposta “nessuna violazione”, anche quando il contesto è evidente.
Questo dimostra che il sistema di moderazione attuale non valuta abbastanza il rischio reale: età non verificabile, esposizione sessualizzata, commenti espliciti, salvataggi, ricondivisioni e possibile diffusione incontrollata delle immagini.
Non si tratta di censura. Si tratta di tutela.
Chiediamo a TikTok Italia e alle autorità competenti di intervenire con misure concrete:
- revisione umana obbligatoria per le segnalazioni che riguardano possibile sessualizzazione di minori o soggetti dall’età non verificabile;
- valutazione del contesto completo, inclusi commenti, salvataggi, ricondivisioni e modalità di fruizione del contenuto;
- limitazione o rimozione rapida dei contenuti che espongono giovani utenti a fruizione sessuale;
- blocco e sanzione degli account che pubblicano commenti sessuali sotto contenuti con soggetti giovani;
- sistemi più efficaci di verifica dell’età e tutela degli utenti minorenni;
trasparenza reale sulle decisioni di moderazione e possibilità concreta di ricorso umano quando una segnalazione viene respinta. - TikTok ha la capacità tecnica di amplificare contenuti in pochi minuti. Deve avere anche la responsabilità di limitarli quando mettono a rischio minori e giovani utenti.
Questa petizione nasce per chiedere una tutela reale, non simbolica.
La sicurezza dei minori non può dipendere da un algoritmo cieco né da risposte automatiche che ignorano il contesto.
Firmiamo per chiedere interventi urgenti contro la sessualizzazione dei minori e dei giovani su TikTok Italia.

46
Il problema
Il problema
TikTok è una piattaforma usata ogni giorno da milioni di giovani.
Proprio per questo non può continuare a trattare come semplici “balli”, “trend” o “contenuti innocui” video in cui ragazze e ragazzi giovani, o dall’età non chiaramente verificabile, espongono la propria immagine in modo sessualizzato.
Il problema non riguarda solo i commenti. I commenti sono la conseguenza visibile.
Il problema nasce prima: contenuti costruiti sull’esposizione del corpo vengono pubblicati, premiati dall’algoritmo, salvati, ricondivisi e normalizzati davanti a un pubblico enorme, spesso composto anche da adulti.
Molti giovani non comprendono davvero le conseguenze di ciò che pubblicano online.
Un video può essere salvato, trasformato in screenshot, ricondiviso fuori contesto, finire in gruppi privati, essere usato per derisione, molestie, ricatti, sexualizzazione, cyberbullismo o danni futuri alla reputazione personale, scolastica e lavorativa.
Ancora più grave è il fatto che molte segnalazioni inviate a TikTok per contenuti di questo tipo vengono chiuse con la risposta “nessuna violazione”, anche quando il contesto è evidente.
Questo dimostra che il sistema di moderazione attuale non valuta abbastanza il rischio reale: età non verificabile, esposizione sessualizzata, commenti espliciti, salvataggi, ricondivisioni e possibile diffusione incontrollata delle immagini.
Non si tratta di censura. Si tratta di tutela.
Chiediamo a TikTok Italia e alle autorità competenti di intervenire con misure concrete:
- revisione umana obbligatoria per le segnalazioni che riguardano possibile sessualizzazione di minori o soggetti dall’età non verificabile;
- valutazione del contesto completo, inclusi commenti, salvataggi, ricondivisioni e modalità di fruizione del contenuto;
- limitazione o rimozione rapida dei contenuti che espongono giovani utenti a fruizione sessuale;
- blocco e sanzione degli account che pubblicano commenti sessuali sotto contenuti con soggetti giovani;
- sistemi più efficaci di verifica dell’età e tutela degli utenti minorenni;
trasparenza reale sulle decisioni di moderazione e possibilità concreta di ricorso umano quando una segnalazione viene respinta. - TikTok ha la capacità tecnica di amplificare contenuti in pochi minuti. Deve avere anche la responsabilità di limitarli quando mettono a rischio minori e giovani utenti.
Questa petizione nasce per chiedere una tutela reale, non simbolica.
La sicurezza dei minori non può dipendere da un algoritmo cieco né da risposte automatiche che ignorano il contesto.
Firmiamo per chiedere interventi urgenti contro la sessualizzazione dei minori e dei giovani su TikTok Italia.

46
Aggiornamenti sulla petizione
Condividi questa petizione
Petizione creata in data 11 maggio 2026