AI-oplichting maakt misbruik van beroemdheden: Taylor Swift staat bovenaan de lijst met valse goedkeuringen

17

Beroemdheden, met name Taylor Swift, worden steeds vaker het doelwit van door AI aangedreven oplichting. Uit een nieuw McAfee-rapport blijkt dat 72% van de Amerikanen online te maken heeft gehad met nep-aanbevelingen van beroemdheden, waarbij de gelijkenis van Swift meer wordt uitgebuit dan welke andere publieke figuur dan ook. Deze toename van oplichting wordt veroorzaakt door het gemak waarmee kunstmatige intelligentie nu overtuigende maar frauduleuze inhoud creëert.

De opkomst van deepfakes van beroemdheden in onlinefraude

Het onderzoek identificeert Scarlett Johansson, Jenna Ortega en Sydney Sweeney als andere frequente slachtoffers van AI-gestuurde oplichting. De meeste doelwitten zijn iconen uit de popcultuur of muzikanten, hoewel de Amerikaanse vertegenwoordiger Alexandria Ocasio-Cortez ook zwaar wordt uitgebuit, waarschijnlijk vanwege haar grote zichtbaarheid en politieke relevantie.

Het rapport richt zich op oplichting waarbij producten of diensten betrokken zijn, zoals valse cryptocurrency-programma’s die ten onrechte aan AOC worden toegeschreven. Hoewel de prevalentie van deepfakes waarbij figuren als Donald Trump betrokken zijn hoog is, worden deze in het onderzoek niet meegenomen vanwege de beperktere reikwijdte ervan. Oplichters maken misbruik van de aandacht van beroemdheden om slachtoffers ertoe te verleiden op kwaadaardige links te klikken, mee te doen aan frauduleuze weggeefacties of nagemaakte goederen te kopen.

De effectiviteit van deze oplichting is alarmerend: 39% van de ondervraagden heeft op een valse goedkeuring geklikt, en 10% heeft gemiddeld $525 verloren na het delen van persoonlijke informatie.

Hoe AI het probleem voedt

Met generatieve AI-tools kunnen oplichters nu de verschijningen van beroemdheden klonen voor valse aanbevelingen, weggeefacties of productpromoties. Een overtuigende post op sociale media is voldoende om slachtoffers te misleiden. AI-bedrijven implementeren veiligheidsmaatregelen om ongeoorloofd gebruik van gelijkenissen van beroemdheden te voorkomen, maar deze systemen worden vaak omzeild.

OpenAI kreeg bijvoorbeeld kritiek kort na de release van Sora toen ongepaste AI-video’s van Martin Luther King Jr. op het platform verschenen, wat aanleiding gaf tot een reactie van zijn nalatenschap. Hoewel OpenAI samenwerkt met beroemdheden om dit probleem aan te pakken, gaat het probleem verder dan eenvoudige technische oplossingen.

AI-oplichting opsporen: een gids voor consumenten

Het identificeren van door AI gegenereerde inhoud kan moeilijk zijn, maar de belangrijkste indicatoren zijn onder meer:

  • Visuele afwijkingen: Controleer op verdwijnende/weer verschijnende objecten, natuurkundige overtredingen of onnatuurlijk gladde huidtexturen.
  • Watermerken: Veel AI-generatoren laten ingebedde of zichtbare watermerken achter.
  • Platformlabels: Zoek naar door AI gegenereerde labels op platforms zoals Instagram, TikTok of YouTube.

Zelfs zonder AI blijven de oplichtingstactieken consistent. Volgens Abhishek Karnik, hoofd dreigingsonderzoek bij McAfee, “zijn de waarschuwingssignalen niet veranderd: urgentie, emotionele druk en verzoeken om persoonlijke informatie of betaling zijn nog steeds de grootste weggeefacties.”

Veilig online blijven

  • Denk na voordat u klikt: Oplichting is gebaseerd op het creëren van paniek of opwinding. Pauzeer en beoordeel.
  • Verifieer de bron: Controleer op verkeerd gespelde links, niet-geverifieerde accounts of ontbrekende officiële aanbevelingen.
  • Vermijd onconventionele betalingen: Wees op uw hoede voor oplichting waarbij betaling via cryptocurrency of ongeautoriseerde betalingsapps wordt geëist.

Oplichting door AI evolueert, maar waakzaamheid blijft de beste verdediging. Het feit dat iets de goedkeuring van beroemdheden claimt, garandeert nog niet de authenticiteit ervan.