додому Últimas notícias e artigos Adolescentes Sue Elon Musk’s Grok sobre imagens falsas de abuso sexual infantil

Adolescentes Sue Elon Musk’s Grok sobre imagens falsas de abuso sexual infantil

Três adolescentes do Tennessee entraram com uma ação federal contra a xAI de Elon Musk, a empresa por trás do chatbot Grok, alegando que a IA foi usada para gerar imagens falsas sexualmente explícitas deles como menores. O processo alega que a xAI falhou conscientemente na implementação de medidas básicas de segurança que teriam impedido a criação e distribuição de material de abuso sexual infantil (CSAM).

As alegações

O processo argumenta que, embora outras empresas de IA tenham estabelecido proativamente salvaguardas contra o uso indevido, a xAI optou deliberadamente por não fazê-lo, vendo uma oportunidade financeira no acesso não verificado. De acordo com a denúncia, a xAI “destruiu” a vida dos demandantes ao permitir que o chatbot produzisse CSAM e depois não conseguiu resolver o problema de forma adequada.

A partir de maio do ano passado, os usuários do Grok puderam solicitar à IA a criação de conteúdo sexualmente explícito, incluindo imagens de pessoas reais vestidas apenas com roupas íntimas. Essa capacidade rapidamente se transformou em pornografia deepfake não consensual generalizada, com alguns materiais retratando menores. A ação busca o status de ação coletiva, potencialmente estendendo a ação legal a milhares de vítimas.

Como aconteceu

Os demandantes descobriram o abuso quando alguém recebeu mensagens anônimas no Instagram alertando-a sobre deepfakes de nudez circulando no Discord. Essas imagens foram criadas usando ferramentas de IA que licenciam os recursos de geração de imagens da Grok e depois distribuídas em plataformas como o Telegram. O processo alega que um aplicativo de terceiros foi usado para gerar imagens e que a xAI lucrou conscientemente com isso.

Uma das demandantes teve suas fotos reais tiradas de seu anuário escolar usadas nos deepfakes. O autor do crime foi preso em dezembro de 2025 depois que a polícia rastreou a distribuição das imagens, mas material semelhante de outras 15 meninas também foi encontrado no dispositivo do suspeito.

O argumento jurídico

O processo acusa a xAI de violar as leis de pornografia infantil ao criar, possuir e distribuir CSAM conscientemente em seus servidores. Alega que a empresa não conseguiu implementar as proteções padrão da indústria: rejeitar solicitações explícitas, bloquear material gerado, verificar bancos de dados CSAM e fornecer serviços de remoção para as vítimas.

Em vez disso, a xAI promoveu ativamente o “Modo Picante” de Grok e sua capacidade de gerar imagens sexuais, com restrições mínimas contra CSAM. O prompt do sistema do chatbot inclui uma regra contra a criação de tal material, mas o processo argumenta que isso é facilmente contornado e insuficiente.

As consequências

Todos os três demandantes passaram por sofrimento emocional grave, com dois relatando dificuldades para dormir e comer. O processo enfatiza o trauma duradouro de saber que as suas imagens podem continuar a ser traficadas online por predadores.

O próprio Elon Musk afirmou em janeiro que não tinha conhecimento de tais imagens geradas por Grok, afirmando que se fossem encontrados bugs, eles seriam corrigidos imediatamente. No entanto, o processo sugere que esta resposta é insuficiente, dado o abuso generalizado que já ocorreu.

O caso levanta questões críticas sobre a responsabilização da IA ​​e a responsabilidade das empresas tecnológicas em proteger as populações vulneráveis ​​da exploração. O resultado poderá estabelecer um precedente sobre como as futuras plataformas de IA serão regulamentadas para evitar abusos semelhantes.

Exit mobile version