A plataforma de mídia social de Elon Musk, X (anteriormente Twitter), decidiu restringir seu chatbot de IA, Grok, de gerar imagens explícitas ou sexualizadas de pessoas reais em regiões específicas. A mudança ocorre após ampla condenação internacional e escrutínio regulatório sobre a proliferação de conteúdo explícito gerado por IA na plataforma.
Investigações Globais Acionam Resposta
Na semana passada, reguladores em todo o mundo lançaram investigações sobre as capacidades da Grok. Alguns países proibiram completamente a aplicação, alegando preocupações sobre o seu potencial de utilização indevida. Nos Estados Unidos, os investigadores da Califórnia estão a examinar se Grok violou as leis estaduais relativas a imagens não consensuais.
O órgão independente de vigilância de segurança online do Reino Unido, Ofcom, iniciou seu próprio inquérito na segunda-feira, sinalizando uma séria ameaça legal para X. De acordo com o Ofcom, se X não cumprir seus pedidos de ação, o regulador tem autoridade para buscar uma ordem judicial que poderia cortar o processamento de pagamentos e receitas de publicidade para a plataforma. Esta é uma escalada significativa, pois ameaça as operações financeiras de X.
Bloqueio geográfico como solução
X anunciou na quarta-feira que implementará o “bloqueio geográfico” – restringindo a capacidade de Grok de atender solicitações de imagens problemáticas em jurisdições onde tal conteúdo é ilegal. Isto significa que os utilizadores em determinados países não poderão solicitar à IA que crie imagens explícitas de indivíduos reais.
Por que isso é importante: O rápido desenvolvimento de ferramentas de geração de imagens de IA apresenta novos desafios para moderação de conteúdo e estruturas jurídicas. Os reguladores estão agora a correr para se adaptarem à velocidade a que estas tecnologias evoluem, e empresas como a X estão sob pressão crescente para impor normas.
A resposta da plataforma sublinha a crescente tensão entre inovação, liberdade de expressão e conformidade legal na era da IA. A reação global demonstra que a geração desenfreada de conteúdo explícito de IA já não é uma opção viável para as principais plataformas de redes sociais.
