Las celebridades, en particular Taylor Swift, son cada vez más el blanco de estafas basadas en inteligencia artificial. Un nuevo informe de McAfee revela que el 72% de los estadounidenses ha encontrado respaldos falsos de celebridades en línea, y la imagen de Swift es explotada más que cualquier otra figura pública. Este aumento de las estafas se debe a la facilidad con la que la inteligencia artificial ahora crea contenido convincente pero fraudulento.
El auge de los deepfakes de celebridades en el fraude online
El estudio identifica a Scarlett Johansson, Jenna Ortega y Sydney Sweeney como otras víctimas frecuentes de estafas impulsadas por la IA. La mayoría de los objetivos son íconos de la cultura pop o músicos, aunque la representante estadounidense Alexandria Ocasio-Cortez también es muy explotada, probablemente debido a su alta visibilidad y relevancia política.
El informe se centra en estafas que involucran productos o servicios, como esquemas falsos de criptomonedas atribuidos falsamente a AOC. Si bien la prevalencia de deepfakes que involucran a figuras como Donald Trump es alta, el estudio no los incluye debido a su alcance más limitado. Los estafadores aprovechan la atención de las celebridades para atraer a las víctimas para que hagan clic en enlaces maliciosos, participen en obsequios fraudulentos o compren productos falsificados.
La efectividad de estas estafas es alarmante: el 39% de los encuestados ha hecho clic en un respaldo falso y el 10% ha perdido un promedio de $525 después de compartir información personal.
Cómo la IA alimenta el problema
Las herramientas de inteligencia artificial generativa ahora permiten a los estafadores clonar apariciones de celebridades para obtener patrocinios, obsequios o promociones de productos falsos. Una publicación convincente en las redes sociales es todo lo que se necesita para engañar a las víctimas. Las empresas de inteligencia artificial están implementando salvaguardias para evitar el uso no autorizado de imágenes de celebridades, pero estos sistemas a menudo se eluden.
Por ejemplo, OpenAI enfrentó críticas poco después de liberar a Sora cuando aparecieron en la plataforma videos inapropiados de IA de Martin Luther King Jr., lo que provocó una respuesta de su patrimonio. Si bien OpenAI está trabajando con celebridades para abordar este problema, el problema va más allá de simples soluciones técnicas.
Detectar estafas de IA: una guía para consumidores
Identificar contenido generado por IA puede resultar difícil, pero los indicadores clave incluyen:
- Anomalías visuales: Compruebe si hay objetos que desaparecen o reaparecen, violaciones físicas o texturas de piel anormalmente suaves.
- Marcas de agua: Muchos generadores de IA dejan marcas de agua incrustadas o visibles.
- Etiquetas de plataforma: Busque etiquetas generadas por IA en plataformas como Instagram, TikTok o YouTube.
Incluso sin IA, las tácticas de estafa siguen siendo consistentes. Según Abhishek Karnik, jefe de investigación de amenazas de McAfee, “las señales de alerta no han cambiado: la urgencia, la presión emocional y las solicitudes de información personal o de pago siguen siendo los mayores indicios”.
Mantenerse seguro en línea
- Piense antes de hacer clic: Las estafas se basan en crear pánico o emoción. Haga una pausa y evalúe.
- Verifique la fuente: Compruebe si hay enlaces mal escritos, cuentas no verificadas o avales oficiales faltantes.
- Evite pagos no convencionales: Tenga cuidado con las estafas que exigen pagos mediante criptomonedas o aplicaciones de pago no autorizadas.
Las estafas impulsadas por IA están evolucionando, pero la vigilancia sigue siendo la mejor defensa. El hecho de que algo afirme el respaldo de una celebridad no garantiza su autenticidad.





























