Celebridades, especialmente Taylor Swift, são cada vez mais alvo de golpes baseados em IA. Um novo relatório da McAfee revela que 72% dos americanos encontraram endossos falsos de celebridades online, com a imagem de Swift sendo explorada mais do que qualquer outra figura pública. Este aumento de fraudes é impulsionado pela facilidade com que a inteligência artificial cria agora conteúdo convincente, mas fraudulento.
A ascensão dos deepfakes de celebridades na fraude online
O estudo identifica Scarlett Johansson, Jenna Ortega e Sydney Sweeney como outras vítimas frequentes de golpes baseados em IA. A maioria dos alvos são ícones da cultura pop ou músicos, embora a deputada norte-americana Alexandria Ocasio-Cortez também seja fortemente explorada, provavelmente devido à sua alta visibilidade e relevância política.
O relatório concentra-se em fraudes envolvendo produtos ou serviços, como esquemas de criptomoedas falsas atribuídas falsamente à AOC. Embora a prevalência de deepfakes envolvendo figuras como Donald Trump seja alta, o estudo não os inclui devido ao seu escopo mais restrito. Os golpistas exploram a atenção das celebridades para induzir as vítimas a clicar em links maliciosos, participar de brindes fraudulentos ou comprar produtos falsificados.
A eficácia desses golpes é alarmante: 39% dos entrevistados clicaram em um endosso falso e 10% perderam uma média de US$ 525 após compartilhar informações pessoais.
Como a IA alimenta o problema
As ferramentas generativas de IA agora permitem que golpistas clonem aparições de celebridades para endossos, brindes ou promoções de produtos falsos. Basta uma postagem convincente nas redes sociais para enganar as vítimas. As empresas de IA estão a implementar salvaguardas para impedir a utilização não autorizada de imagens de celebridades, mas estes sistemas são frequentemente contornados.
Por exemplo, a OpenAI enfrentou críticas logo após o lançamento de Sora, quando vídeos inadequados de IA de Martin Luther King Jr. Embora a OpenAI esteja trabalhando com celebridades para resolver esse problema, o problema vai além de simples soluções técnicas.
Identificando golpes de IA: um guia para consumidores
Identificar conteúdo gerado por IA pode ser difícil, mas os principais indicadores incluem:
- Anomalias Visuais: Verifique se há objetos que desaparecem/reaparecem, violações de física ou texturas de pele estranhamente lisas.
- Marcas d’água: Muitos geradores de IA deixam marcas d’água incorporadas ou visíveis.
- Rótulos de plataforma: procure rótulos gerados por IA em plataformas como Instagram, TikTok ou YouTube.
Mesmo sem IA, as táticas fraudulentas permanecem consistentes. De acordo com Abhishek Karnik, chefe de pesquisa de ameaças da McAfee, “os sinais de alerta não mudaram: urgência, pressão emocional e solicitações de informações pessoais ou pagamento ainda são os maiores brindes”.
Mantendo-se seguro on-line
- Pense antes de clicar: Os golpes baseiam-se na criação de pânico ou excitação. Faça uma pausa e avalie.
- Verifique a fonte: Verifique se há links com erros ortográficos, contas não verificadas ou endossos oficiais ausentes.
- Evite pagamentos não convencionais: Tenha cuidado com golpes que exigem pagamento via criptomoeda ou aplicativos de pagamento não autorizados.
Os golpes baseados em IA estão evoluindo, mas a vigilância continua sendo a melhor defesa. Só porque algo alega o endosso de uma celebridade não garante sua autenticidade.





























