Niedawne dochodzenie przeprowadzone przez AI Forensics, europejski instytut badawczy non-profit, ujawniło zorganizowaną na dużą skalę sieć szerzącą przemoc za pośrednictwem Telegramu. Raport opisuje „ekosystem przemocy przemysłowej”, w którym prawie 25 000 użytkowników w Hiszpanii i Włoszech aktywnie rozpowszechnia treści seksualne i pornografię dziecięcą bez zgody.
Po przeanalizowaniu 2,8 miliona wiadomości w 16 różnych grupach w ciągu sześciu tygodni badacze odkryli złożony, wieloplatformowy łańcuch wykorzystywany do wykorzystywania ofiar i zarabiania na nielegalnych treściach.
Anatomia sieci przemocy
Badanie wskazuje na niepokojący wzorzec sposobu wydobywania, dystrybucji i sprzedaży tych treści. Cykl zwykle przebiega według trajektorii wieloplatformowej:
- Gromadzenie danych: Przestępcy często kradną oryginalne materiały z prywatnych wiadomości na Instagramie i WhatsApp.
- Dystrybucja: Telegram służy jako centralny węzeł dla tych dużych grup. Treść jest często wąsko ukierunkowana; kobiety występujące w filmach są często identyfikowane po imieniu, oznaczane, a nawet lokalizowane geograficznie za pomocą linków do profili.
- Rekrutacja: Platformy takie jak Reddit działają jak bramy, udostępniając linki przekierowujące użytkowników do zamkniętych płatnych kanałów Telegramu.
- Redystrybucja: po wycieku treści często są zwracane na główne platformy, takie jak TikTok i Instagram.
Groźba monetyzowana
Przemoc ma charakter nie tylko społeczny, ale także komercyjny. Przestępcy zarabiają na swoich archiwach za pomocą:
– Jednorazowa opłata za dostęp do 50 euro za pełne archiwa.
– Miesięczne subskrypcje kosztują około 5 euro.
– Stripboty, które wykorzystują sztuczną inteligencję do usuwania odzieży ze zdjęć, umożliwiając użytkownikom tworzenie nowych treści bez zgody ofiar z niespotykaną szybkością i łatwością.
Skala problemu
Zasięg tych sieci jest ogromny i obejmuje około 52 000 osób (27 000 we Włoszech i 25 000 w Hiszpanii). Ten ruch transgraniczny pokazuje, że cyfrowa przemoc seksualna nie jest problemem lokalnym, ale strukturalnym kryzysem europejskim, który ignoruje granice krajowe.
Wyniki dochodzenia pojawiają się w krytycznym momencie dla regulacji cyfrowych. Najnowsze dane Europejskiego Instytutu ds. Równości Kobiet i Mężczyzn pokazują, że jedna na trzy kobiety w UE doświadczyła przemocy seksualnej od 15. roku życia, a liczba ta uwzględnia rosnącą falę przemocy w internecie.
Błąd moderacji
Kluczowym wnioskiem płynącym z raportu jest nieskuteczność obecnych wysiłków moderacyjnych Telegramu. Chociaż platforma podobno blokuje grupy naruszające zasady, badacze zaobserwowali, że grupy te są często odtwarzane pod tymi samymi nazwami w ciągu kilku godzin.
Ta dynamika walnięcia kreta rodzi poważne pytania dotyczące zdolności platformy do kontrolowania własnego ekosystemu. AI Forensics twierdzi, że model subskrypcji Telegram Premium może niechcący pomóc przestępcom, zapewniając uproszczony sposób zarabiania na nielegalnych treściach.
Proponowane rozwiązania regulacyjne
Aby temu zaradzić, w raporcie sugeruje się kilka pilnych działań:
1. Wyznaczenie VLOP: Komisja Europejska musi sklasyfikować Telegram jako Bardzo dużą platformę internetową (VLOP) zgodnie z ustawą o usługach cyfrowych (DSA). Będzie to wymagać od platformy poddania bardziej rygorystycznej ocenie ryzyka i zapewnienia przejrzystości jej algorytmów.
2. Silniejsze regulacje dotyczące sztucznej inteligencji: Pojawiają się wezwania do rozszerzenia unijnej ustawy o sztucznej inteligencji w celu uwzględnienia szczegółowych przepisów, które zwiększą skuteczność usuwania materiałów zawierających przemoc na tle seksualnym i pornografię dziecięcą (CSAM).
3. Ulepszony system składania skarg: Potrzebne są ulepszone mechanizmy raportowania, aby mieć pewność, że po zablokowaniu grupy nie mogą natychmiast pojawić się ponownie.
„Jest to problem strukturalny na skalę europejską, który wymaga europejskiej reakcji.” — Inteligencja kryminalistyczna
Wniosek
Dochodzenie ujawnia wysoce zorganizowaną, dochodową i transgraniczną sieć przemocy cyfrowej, która wykorzystuje zarówno technologię sztucznej inteligencji, jak i luki w przepisach dotyczących platform. Rozwiązanie tego problemu wymaga przejścia od prostego usuwania treści do systemowego nadzoru regulacyjnego nad funkcjonowaniem dużych komunikatorów w UE.
