Tre adolescenti del Tennessee hanno intentato una causa federale contro xAI di Elon Musk, la società dietro il chatbot Grok, sostenendo che l’intelligenza artificiale è stata utilizzata per generare immagini deepfake sessualmente esplicite di loro quando erano minorenni. La causa afferma che xAI ha consapevolmente omesso di implementare misure di sicurezza di base che avrebbero impedito la creazione e la distribuzione di materiale pedopornografico (CSAM).
Le accuse
La causa sostiene che mentre altre società di intelligenza artificiale hanno stabilito in modo proattivo misure di salvaguardia contro gli abusi, xAI ha scelto deliberatamente di non farlo, vedendo un’opportunità finanziaria nell’accesso incontrollato. Secondo la denuncia, xAI ha “distrutto” la vita dei querelanti consentendo al chatbot di produrre materiale pedopornografico e poi non riuscendo ad affrontare adeguatamente la questione.
A partire dal maggio dello scorso anno, gli utenti di Grok potevano spingere l’intelligenza artificiale a creare contenuti sessualmente espliciti, comprese immagini di persone reali in mutande. Questa capacità si è rapidamente trasformata in una diffusa pornografia deepfake non consensuale, con materiale raffigurante minori. La causa cerca lo status di azione collettiva, estendendo potenzialmente l’azione legale a migliaia di vittime.
Come è successo
I querelanti hanno scoperto l’abuso quando una di loro ha ricevuto messaggi anonimi su Instagram che la avvisavano dei deepfake di nudo che circolavano su Discord. Queste immagini sono state create utilizzando strumenti di intelligenza artificiale che concedono in licenza le capacità di generazione di immagini di Grok e quindi distribuite su piattaforme come Telegram. La causa sostiene che per generare immagini è stata utilizzata un’app di terze parti e che xAI ne ha consapevolmente tratto profitto.
Una delle querelanti ha utilizzato le sue foto reali prese dal suo annuario scolastico nei deepfake. L’autore del reato è stato arrestato nel dicembre 2025 dopo che la polizia ha rintracciato la distribuzione delle immagini, ma sul dispositivo del sospettato è stato trovato anche materiale simile di altre 15 ragazze.
L’argomento legale
La causa accusa xAI di violare le leggi sulla pornografia infantile creando, possedendo e distribuendo consapevolmente materiale pedopornografico sui suoi server. Afferma che la società non è riuscita a implementare protezioni standard del settore: rifiutando richieste esplicite, bloccando il materiale generato, verificando i database CSAM e fornendo servizi di rimozione per le vittime.
Invece, xAI ha promosso attivamente la “Spicy Mode” di Grok e la sua capacità di generare immagini sessuali, con restrizioni minime contro i materiali pedopornografici. La richiesta di sistema del chatbot include una regola contro la creazione di tale materiale, ma la causa sostiene che questa regola è facilmente aggirabile e insufficiente.
Le conseguenze
Tutti e tre i ricorrenti hanno sperimentato un grave disagio emotivo, con due che hanno riferito difficoltà nel dormire e nel mangiare. La causa sottolinea il trauma duraturo derivante dal sapere che le loro immagini potrebbero continuare a essere trafficate online da predatori.
Lo stesso Elon Musk ha affermato a gennaio di non essere a conoscenza di immagini del genere generate da Grok, affermando che se fossero stati trovati bug, sarebbero stati risolti immediatamente. Tuttavia, la causa suggerisce che questa risposta è insufficiente considerati gli abusi diffusi che si sono già verificati.
Il caso solleva questioni cruciali sulla responsabilità dell’IA e sulla responsabilità delle aziende tecnologiche nel proteggere le popolazioni vulnerabili dallo sfruttamento. Il risultato potrebbe costituire un precedente per il modo in cui le future piattaforme di intelligenza artificiale saranno regolamentate per prevenire abusi simili.






























