ИИ-Мошенничество Использует Знаменитостей: Тейлор Свифт — Лидер в Поддельных Рекламах

2

Знаменитости, особенно Тейлор Свифт, все чаще становятся жертвами мошеннических схем, использующих искусственный интеллект. Новый отчет McAfee показывает, что 72% американцев сталкивались с поддельными рекламами от знаменитостей в Интернете, причем образ Свифт используется чаще, чем у любого другого публичного лица. Этот всплеск мошенничества обусловлен простотой, с которой искусственный интеллект теперь создает убедительный, но фальшивый контент.

Рост Поддельных Видео Знаменитостей в Онлайн-Мошенничестве

В исследовании также указаны Скарлетт Йоханссон, Дженна Ортега и Сидни Суини как частые жертвы мошенничества на основе ИИ. Большинство целей — иконы поп-культуры или музыканты, хотя представитель США Александрия Окасио-Кортес также активно эксплуатируется, вероятно, из-за ее высокой узнаваемости и политической значимости.

Отчет фокусируется на мошенничестве, связанном с продуктами или услугами, например, поддельные криптосхемы, ложно приписываемые Окасио-Кортес. Хотя распространенность поддельных видео с участием Дональда Трампа высока, исследование не включает их из-за более узкого охвата. Мошенники используют внимание знаменитостей, чтобы заманить жертв на клик по вредоносным ссылкам, участие в поддельных розыгрышах или покупку контрафактных товаров.

Эффективность этих мошеннических схем вызывает тревогу: 39% опрошенных перешли по поддельной рекламе, а 10% потеряли в среднем 525 долларов после предоставления личной информации.

Как ИИ Подпитывает Проблему

Инструменты генеративного ИИ теперь позволяют мошенникам клонировать внешность знаменитостей для фальшивых реклам, розыгрышей или продвижения продуктов. Убеждающего поста в социальных сетях достаточно, чтобы обмануть жертв. Компании, разрабатывающие ИИ, внедряют меры безопасности для предотвращения несанкционированного использования изображений знаменитостей, но эти системы часто обходятся.

Например, OpenAI столкнулась с критикой вскоре после выпуска Sora, когда на платформе появились неподобающие видео с изображением Мартина Лютера Кинга-младшего, что вызвало ответ со стороны его наследников. Хотя OpenAI работает со знаменитостями для решения этой проблемы, она выходит за рамки простых технических исправлений.

Распознавание ИИ-Мошенничества: Руководство для Потребителей

Идентифицировать контент, сгенерированный ИИ, может быть трудно, но ключевые индикаторы включают:

  • Визуальные Аномалии: Обратите внимание на исчезающие/повторно появляющиеся объекты, нарушение физических законов или неестественно гладкую текстуру кожи.
  • Водяные Знаки: Многие ИИ-генераторы оставляют встроенные или видимые водяные знаки.
  • Метки Платформ: Ищите метки, указывающие на контент, созданный ИИ, на платформах, таких как Instagram, TikTok или YouTube.

Даже без ИИ мошеннические тактики остаются неизменными. По словам Абхишека Карника, руководителя отдела исследований угроз McAfee, «красные флаги не изменились: срочность, эмоциональное давление и запросы личной информации или оплаты по-прежнему являются самыми явными признаками».

Как Оставаться в Безопасности в Интернете

  • Думайте, Прежде Чем Кликать: Мошенничество полагается на создание паники или ажиотажа. Остановитесь и оцените ситуацию.
  • Проверьте Источник: Обратите внимание на опечатки в ссылках, непроверенные учетные записи или отсутствие официальных подтверждений.
  • Избегайте Необычных Способов Оплаты: Остерегайтесь мошенничества, требующего оплаты криптовалютой или неавторизованными платежными приложениями.

Мошенничество на основе ИИ развивается, но бдительность остается лучшей защитой. Тот факт, что что-то утверждает о поддержке знаменитости, не гарантирует его подлинность.