Trois adolescents du Tennessee ont intenté une action en justice fédérale contre xAI d’Elon Musk, la société à l’origine du chatbot Grok, alléguant que l’IA avait été utilisée pour générer de fausses images sexuellement explicites d’eux en tant que mineurs. La poursuite affirme que xAI n’a sciemment pas mis en œuvre des mesures de sécurité de base qui auraient empêché la création et la distribution de matériel pédopornographique (CSAM).
Les allégations
Le procès fait valoir que, alors que d’autres sociétés d’IA ont établi de manière proactive des garanties contre les utilisations abusives, xAI a délibérément choisi de ne pas le faire, voyant une opportunité financière dans un accès non contrôlé. Selon la plainte, xAI a « brisé » la vie des plaignants en permettant au chatbot de produire du CSAM, puis en ne résolvant pas le problème de manière adéquate.
À partir de mai de l’année dernière, les utilisateurs de Grok pourraient inciter l’IA à créer du contenu sexuellement explicite, y compris des images de vraies personnes nues jusqu’à leurs sous-vêtements. Cette capacité s’est rapidement transformée en une pornographie deepfake non consensuelle très répandue, avec certains documents représentant des mineurs. Le procès vise le statut de recours collectif, étendant potentiellement les poursuites judiciaires à des milliers de victimes.
Comment c’est arrivé
Les plaignants ont découvert l’abus lorsqu’une personne a reçu des messages anonymes sur Instagram l’alertant sur des deepfakes nus circulant sur Discord. Ces images ont été créées à l’aide d’outils d’IA qui autorisent les capacités de génération d’images de Grok, puis distribuées sur des plateformes comme Telegram. Le procès allègue qu’une application tierce a été utilisée pour générer des images et que xAI en a sciemment profité.
L’une des plaignantes avait ses vraies photos tirées de son annuaire scolaire utilisées dans les deepfakes. L’agresseur a été arrêté en décembre 2025 après que la police ait retracé la distribution des images, mais des éléments similaires de 15 autres filles ont également été trouvés sur l’appareil du suspect.
L’argument juridique
Le procès accuse xAI d’avoir violé les lois sur la pédopornographie en créant, possédant et distribuant sciemment du CSAM sur ses serveurs. Il affirme que l’entreprise n’a pas mis en œuvre les protections standard de l’industrie : rejet des demandes explicites, blocage du matériel généré, vérification par rapport aux bases de données CSAM et fourniture de services de retrait aux victimes.
Au lieu de cela, xAI a activement promu le « mode épicé » de Grok et sa capacité à générer des images sexuelles, avec des restrictions minimales contre le CSAM. L’invite système du chatbot inclut une règle interdisant la création de ce type de matériel, mais le procès soutient que cette règle est facilement contournée et insuffisante.
Les conséquences
Les trois plaignants ont éprouvé une grave détresse émotionnelle, et deux d’entre eux ont signalé des difficultés à dormir et à manger. Le procès souligne le traumatisme durable de savoir que leurs images peuvent continuer à faire l’objet d’un trafic en ligne par des prédateurs.
Elon Musk lui-même a affirmé en janvier qu’il n’était pas au courant de telles images générées par Grok, déclarant que si des bugs étaient découverts, ils seraient corrigés immédiatement. Cependant, le procès suggère que cette réponse est insuffisante compte tenu des abus généralisés qui ont déjà eu lieu.
L’affaire soulève des questions cruciales sur la responsabilité de l’IA et la responsabilité des entreprises technologiques de protéger les populations vulnérables contre l’exploitation. Le résultat pourrait créer un précédent quant à la manière dont les futures plateformes d’IA seront réglementées afin de prévenir des abus similaires.
