Le celebrità, in particolare Taylor Swift, sono sempre più prese di mira da truffe basate sull’intelligenza artificiale. Un nuovo rapporto di McAfee rivela che il 72% degli americani ha riscontrato false sponsorizzazioni di celebrità online, con la somiglianza di Swift sfruttata più di qualsiasi altro personaggio pubblico. Questa ondata di truffe è dovuta alla facilità con cui l’intelligenza artificiale ora crea contenuti convincenti ma fraudolenti.
L’ascesa dei deepfake delle celebrità nelle frodi online
Lo studio identifica Scarlett Johansson, Jenna Ortega e Sydney Sweeney come altre vittime frequenti di truffe basate sull’intelligenza artificiale. La maggior parte degli obiettivi sono icone o musicisti della cultura pop, sebbene anche la deputata statunitense Alexandria Ocasio-Cortez sia pesantemente sfruttata, probabilmente a causa della sua elevata visibilità e rilevanza politica.
Il rapporto si concentra sulle truffe che coinvolgono prodotti o servizi, come i falsi schemi di criptovaluta falsamente attribuiti ad AOC. Sebbene la prevalenza di deepfake che coinvolgano personaggi come Donald Trump sia elevata, lo studio non li include a causa della sua portata più ristretta. I truffatori sfruttano l’attenzione delle celebrità per indurre le vittime a fare clic su collegamenti dannosi, a inserire omaggi fraudolenti o ad acquistare prodotti contraffatti.
L’efficacia di queste truffe è allarmante: il 39% degli intervistati ha fatto clic su un’approvazione falsa e il 10% ha perso in media 525 dollari dopo aver condiviso informazioni personali.
Come l’intelligenza artificiale alimenta il problema
Gli strumenti di intelligenza artificiale generativa ora consentono ai truffatori di clonare le apparizioni di celebrità per false sponsorizzazioni, omaggi o promozioni di prodotti. Un post convincente sui social media è tutto ciò che serve per ingannare le vittime. Le società di intelligenza artificiale stanno implementando misure di salvaguardia per prevenire l’uso non autorizzato delle sembianze di celebrità, ma questi sistemi vengono spesso aggirati.
Ad esempio, OpenAI ha subito critiche poco dopo aver rilasciato Sora quando sono apparsi sulla piattaforma video AI inappropriati di Martin Luther King Jr., provocando una risposta da parte del suo patrimonio. Sebbene OpenAI stia collaborando con le celebrità per risolvere questo problema, il problema va oltre le semplici soluzioni tecniche.
Individuare le truffe legate all’intelligenza artificiale: una guida per i consumatori
Identificare i contenuti generati dall’intelligenza artificiale può essere difficile, ma gli indicatori chiave includono:
- Anomalie visive: Controlla la scomparsa/ricomparsa di oggetti, violazioni fisiche o texture della pelle innaturalmente lisce.
- Filigrane: molti generatori di intelligenza artificiale lasciano filigrane incorporate o visibili.
- Etichette della piattaforma: cerca le etichette generate dall’intelligenza artificiale su piattaforme come Instagram, TikTok o YouTube.
Anche senza l’intelligenza artificiale, le tattiche di truffa rimangono coerenti. Secondo Abhishek Karnik, responsabile della ricerca sulle minacce di McAfee, “I segnali d’allarme non sono cambiati: urgenza, pressione emotiva e richieste di informazioni personali o di pagamento sono ancora i segnali più evidenti.”
Rimanere al sicuro online
- Pensa prima di fare clic: Le truffe si basano sulla creazione di panico o eccitazione. Metti in pausa e valuta.
- Verifica la fonte: controlla eventuali collegamenti con errori di ortografia, account non verificati o approvazioni ufficiali mancanti.
- Evita pagamenti non convenzionali: Diffida delle truffe che richiedono pagamenti tramite criptovaluta o app di pagamento non autorizzate.
Le truffe basate sull’intelligenza artificiale si stanno evolvendo, ma la vigilanza rimane la migliore difesa. Solo perché qualcosa rivendica l’approvazione di una celebrità non ne garantisce l’autenticità.




























