Drie tieners uit Tennessee hebben een federale rechtszaak aangespannen tegen xAI van Elon Musk, het bedrijf achter de Grok-chatbot, en beweren dat de AI werd gebruikt om seksueel expliciete deepfake-beelden van hen als minderjarigen te genereren. De rechtszaak beweert dat xAI willens en wetens heeft nagelaten elementaire veiligheidsmaatregelen te implementeren die de creatie en distributie van materiaal over seksueel misbruik van kinderen (CSAM) zouden hebben voorkomen.
De beschuldigingen
In de rechtszaak wordt betoogd dat terwijl andere AI-bedrijven proactief bescherming bieden tegen misbruik, xAI er bewust voor heeft gekozen om dat niet te doen, omdat ze een financiële kans zagen in ongecontroleerde toegang. Volgens de klacht heeft xAI de levens van de eisers “verbrijzeld” door de chatbot toe te staan CSAM te produceren, en er vervolgens niet in te slagen het probleem adequaat aan te pakken.
Vanaf mei vorig jaar konden Grok-gebruikers de AI aanzetten om seksueel expliciete inhoud te maken, inclusief afbeeldingen van echte mensen, uitgekleed tot in hun ondergoed. Deze mogelijkheid escaleerde snel tot wijdverbreide deepfake-pornografie zonder wederzijds goedvinden, waarbij in sommige materialen minderjarigen werden afgebeeld. De rechtszaak beoogt de class action-status, waardoor juridische stappen mogelijk worden uitgebreid tot duizenden slachtoffers.
Hoe het gebeurde
De aanklagers ontdekten het misbruik toen iemand anonieme berichten op Instagram ontving waarin ze werden gewaarschuwd voor naakt-deepfakes die op Discord circuleerden. Deze afbeeldingen zijn gemaakt met behulp van AI-tools die de mogelijkheden voor het genereren van afbeeldingen van Grok in licentie geven, en vervolgens gedistribueerd op platforms zoals Telegram. De rechtszaak beweert dat een app van derden werd gebruikt om afbeeldingen te genereren, en dat xAI daar willens en wetens van heeft geprofiteerd.
Een van de aanklagers liet haar echte foto’s uit haar schooljaarboek gebruiken voor de deepfakes. De dader werd in december 2025 gearresteerd nadat de politie de verspreiding van de beelden had getraceerd, maar ook van vijftien andere meisjes werd soortgelijk materiaal aangetroffen op het toestel van de verdachte.
Het juridische argument
In de rechtszaak wordt xAI beschuldigd van het overtreden van kinderpornowetten door willens en wetens CSAM te creëren, bezitten en verspreiden op zijn servers. Het beweert dat het bedrijf er niet in is geslaagd om bescherming te bieden die voldoet aan de industrienormen: het afwijzen van expliciete verzoeken, het blokkeren van gegenereerd materiaal, het controleren aan de hand van CSAM-databases en het aanbieden van verwijderingsdiensten voor slachtoffers.
In plaats daarvan promootte xAI actief de “Spicy Mode” van Grok en zijn vermogen om seksuele beelden te genereren, met minimale beperkingen tegen CSAM. De systeemprompt van de chatbot bevat wel een regel tegen het maken van dergelijk materiaal, maar de rechtszaak stelt dat dit gemakkelijk kan worden omzeild en onvoldoende is.
De nasleep
Alle drie de aanklagers hebben ernstige emotionele problemen ervaren, waarbij twee klagen over slaap- en eetproblemen. De rechtszaak benadrukt het blijvende trauma dat gepaard gaat met de wetenschap dat hun afbeeldingen mogelijk nog steeds online door roofdieren worden verhandeld.
Elon Musk beweerde zelf in januari dat hij niet op de hoogte was van dergelijke afbeeldingen die door Grok werden gegenereerd, en verklaarde dat als er bugs zouden worden gevonden, deze onmiddellijk zouden worden verholpen. Uit de rechtszaak blijkt echter dat deze reactie onvoldoende is, gezien het wijdverbreide misbruik dat zich al heeft voorgedaan.
De zaak roept kritische vragen op over de aansprakelijkheid van AI en de verantwoordelijkheid van technologiebedrijven om kwetsbare bevolkingsgroepen tegen uitbuiting te beschermen. De uitkomst zou een precedent kunnen scheppen voor de manier waarop toekomstige AI-platforms worden gereguleerd om soortgelijke misbruiken te voorkomen.
