Les célébrités, en particulier Taylor Swift, sont de plus en plus ciblées par les escroqueries basées sur l’IA. Un nouveau rapport McAfee révèle que 72 % des Américains ont été confrontés à de fausses mentions de célébrités en ligne, l’image de Swift étant plus exploitée que celle de toute autre personnalité publique. Cette recrudescence des escroqueries est due à la facilité avec laquelle l’intelligence artificielle crée désormais des contenus convaincants mais frauduleux.
L’essor des deepfakes de célébrités dans la fraude en ligne
L’étude identifie Scarlett Johansson, Jenna Ortega et Sydney Sweeney comme d’autres victimes fréquentes d’escroqueries basées sur l’IA. La plupart des cibles sont des icônes de la culture pop ou des musiciens, même si la représentante américaine Alexandria Ocasio-Cortez est également fortement exploitée, probablement en raison de sa grande visibilité et de son importance politique.
Le rapport se concentre sur les escroqueries impliquant des produits ou des services, telles que les faux systèmes de cryptomonnaies faussement attribués à AOC. Bien que la prévalence des deepfakes impliquant des personnalités comme Donald Trump soit élevée, l’étude ne les inclut pas en raison de sa portée plus étroite. Les fraudeurs exploitent l’attention des célébrités pour inciter leurs victimes à cliquer sur des liens malveillants, à participer à des cadeaux frauduleux ou à acheter des produits contrefaits.
L’efficacité de ces escroqueries est alarmante : 39 % des personnes interrogées ont cliqué sur une fausse mention et 10 % ont perdu en moyenne 525 $ après avoir partagé des informations personnelles.
Comment l’IA alimente le problème
Les outils d’IA générative permettent désormais aux fraudeurs de cloner les apparences de célébrités pour de fausses mentions, des cadeaux ou des promotions de produits. Une publication convaincante sur les réseaux sociaux suffit pour tromper les victimes. Les sociétés d’IA mettent en place des mesures de protection pour empêcher l’utilisation non autorisée des ressemblances de célébrités, mais ces systèmes sont souvent contournés.
Par exemple, OpenAI a fait l’objet de critiques peu de temps après avoir publié Sora lorsque des vidéos inappropriées d’IA de Martin Luther King Jr. sont apparues sur la plateforme, provoquant une réponse de sa succession. Bien qu’OpenAI travaille avec des célébrités pour résoudre ce problème, le problème s’étend au-delà de simples solutions techniques.
Détecter les escroqueries liées à l’IA : un guide pour les consommateurs
Identifier le contenu généré par l’IA peut être difficile, mais les indicateurs clés incluent :
- Anomalies visuelles : Recherchez des objets qui disparaissent/réapparaissent, des violations physiques ou des textures de peau anormalement lisses.
- Filigranes : De nombreux générateurs d’IA laissent derrière eux des filigranes intégrés ou visibles.
- Étiquettes de plateforme : Recherchez les étiquettes générées par l’IA sur des plateformes comme Instagram, TikTok ou YouTube.
Même sans l’IA, les tactiques d’escroquerie restent cohérentes. Selon Abhishek Karnik, responsable de la recherche sur les menaces chez McAfee, « les signaux d’alarme n’ont pas changé : l’urgence, la pression émotionnelle et les demandes d’informations personnelles ou de paiement restent les plus gros indices. »
Rester en sécurité en ligne
- Réfléchissez avant de cliquer : Les escroqueries consistent à créer de la panique ou de l’excitation. Faites une pause et évaluez.
- Vérifiez la source : Vérifiez les liens mal orthographiés, les comptes non vérifiés ou les mentions officielles manquantes.
- Évitez les paiements non conventionnels : Méfiez-vous des escroqueries exigeant un paiement via une cryptomonnaie ou des applications de paiement non autorisées.
Les escroqueries basées sur l’IA évoluent, mais la vigilance reste la meilleure défense. Ce n’est pas parce que quelque chose prétend être soutenu par une célébrité que son authenticité est garantie.






























