Una recente indagine di AI Forensics, un istituto di ricerca europeo senza scopo di lucro, ha scoperto un’enorme rete organizzata di abusi che opera su Telegram. Il rapporto rivela un “ecosistema di abusi su vasta scala”, in cui quasi 25.000 utenti in Spagna e Italia distribuiscono attivamente materiale sessuale non consensuale e pornografia infantile.
Analizzando 2,8 milioni di messaggi provenienti da 16 gruppi diversi in un periodo di sei settimane, i ricercatori hanno identificato una sofisticata pipeline multipiattaforma utilizzata per sfruttare le vittime e monetizzare i contenuti illegali.
L’anatomia della rete degli abusi
Lo studio evidenzia un modello inquietante nel modo in cui questi contenuti vengono acquistati, distribuiti e venduti. Il ciclo segue tipicamente una traiettoria multipiattaforma:
- Approvvigionamento: gli autori dei reati spesso raccolgono materiale originale da scambi privati su Instagram e WhatsApp.
- Distribuzione: Telegram funge da hub centrale per questi gruppi su larga scala. I contenuti sono spesso altamente mirati; le donne presenti nei video vengono spesso nominate, taggate e persino geolocalizzate tramite collegamenti al profilo condiviso.
- Reclutamento: piattaforme come Reddit fungono da “gateway”, fornendo collegamenti che indirizzano gli utenti verso i canali Telegram privati a pagamento.
- Ridistribuzione: una volta trapelati, i contenuti spesso migrano nuovamente su piattaforme tradizionali come TikTok e Instagram.
Una minaccia monetizzata
L’abuso non è solo sociale; è un’impresa commerciale. Gli autori del reato monetizzano i loro archivi attraverso:
– Costi di accesso una tantum fino a € 50 per archivi completi.
– Abbonamenti mensili del costo di circa 5€.
– Bot “nudificanti”, che utilizzano l’intelligenza artificiale per eliminare gli indumenti dalle immagini, consentendo agli utenti di generare nuovi contenuti non consensuali con una velocità e una facilità senza precedenti.
La portata del problema
La portata di queste reti è vasta e interessa circa 52.000 persone (27.000 in Italia e 25.000 in Spagna). Questo movimento transfrontaliero suggerisce che la violenza sessuale digitale non è un problema localizzato ma una crisi strutturale europea che ignora i confini nazionali.
I risultati arrivano in un momento critico per la regolamentazione digitale. Dati recenti dell’Istituto europeo per l’uguaglianza di genere mostrano che una donna su tre nell’UE ha subito violenza sessuale dall’età di 15 anni, una cifra che include l’ondata crescente di violenza informatica.
Il fallimento della moderazione
Una constatazione centrale del rapporto è l’inadeguatezza degli attuali sforzi di moderazione di Telegram. Anche se secondo quanto riferito la piattaforma chiude i gruppi violenti, i ricercatori hanno osservato che questi gruppi vengono spesso ristabiliti con nomi identici nel giro di poche ore.
Questa dinamica “colpisci la talpa” solleva seri interrogativi sulla capacità della piattaforma di sorvegliare il proprio ecosistema. AI Forensics sostiene che il modello di abbonamento Premium di Telegram potrebbe inavvertitamente assistere gli autori dei reati fornendo un modo semplificato per monetizzare i contenuti illegali.
Soluzioni normative proposte
Per contrastare questo fenomeno, il rapporto suggerisce diversi interventi urgenti:
1. Designazione VLOP: La Commissione Europea dovrebbe designare Telegram come Very Large Online Platform (VLOP) ai sensi del Digital Services Act (DSA). Ciò costringerebbe la piattaforma a sottoporsi a valutazioni dei rischi più rigorose e garantirebbe trasparenza riguardo ai suoi algoritmi.
2. Regolamento più severo sull’IA: si chiede di ampliare la Legge dell’UE sull’IA per includere disposizioni specifiche che rendano più efficiente la rimozione di materiale non consensuale e di abusi sessuali su minori (CSAM).
3. Segnalazione migliorata: sono necessari meccanismi di segnalazione migliorati per garantire che i gruppi segnalati non possano semplicemente ricomparire immediatamente.
“Si tratta di un problema strutturale di portata europea e che richiede una risposta europea.” — Analisi forense dell’intelligenza artificiale
Conclusione
L’indagine mette in luce una rete di abusi digitali altamente organizzata, redditizia e senza confini che sfrutta sia la tecnologia dell’intelligenza artificiale che le lacune della piattaforma. Per affrontare questo problema è necessario andare oltre la semplice cancellazione dei contenuti verso una supervisione normativa sistemica su come operano le grandi piattaforme di messaggistica all’interno dell’UE.
