В октябре 2025 года произошёл резонансный инцидент, демонстрирующий риски, связанные с развитием генеративных ИИ‑технологий: фейковая прямая трансляция с дипфейком генерального директора NVIDIA Дженсена Хуанга привлекла значительно больше зрителей, чем официальное мероприятие компании.
Ключевые цифры
- Официальная трансляция конференции NVIDIA GTC (по технологиям графических процессоров):
- около 20 000 зрителей в прямом эфире;
- впоследствии набрала 200 000 просмотров.
- Фейковая трансляция с дипфейком Хуанга:
- максимум 100 000 зрителей онлайн в прямом эфире.
Содержание фейка и схема мошенничества
Дипфейк выступал от имени Хуанга и заявлял о «событии массового внедрения криптовалюты, которое напрямую связано с миссией NVIDIA — ускорять прогресс человечества». В ходе стрима:
- Аватар утверждал, что NVIDIA запускает инициативу по массовому внедрению цифровых активов.
- Утверждалось, что графические процессоры компании ускоряют работу блокчейнов Ethereum и Solana.
- Зрителей призывали отсканировать QR‑код для перевода криптовалюты в рамках некоего «проекта криптораспределения».
Трансляция была удалена, но за время её существования мошенники могли получить средства от части зрителей.
Почему фейк привлёк больше зрителей?
Несколько факторов, объясняющих успех мошеннической трансляции:
- Качество дипфейка. Существование множества официальных записей выступлений Хуанга (за десятки конференций GTC) дало злоумышленникам обширный материал для обучения ИИ.
- Параллельный запуск. Фейковый стрим шёл одновременно с реальным мероприятием, что усиливало эффект правдоподобия.
- Алгоритмы платформ. Система рекомендаций YouTube временно выводила поддельный стрим в топ по релевантным запросам.
- Нехватка «хайпа» в официальной трансляции. Настоящее мероприятие фокусировалось на партнёрстве с Uber (автономное вождение) и государственных контрактах, а не на новых видеокартах или громких анонсах.
- Привлекательность криптопредложения. Обещания «массового внедрения криптовалюты» могли заинтересовать аудиторию, ищущую быстрые инвестиции.
Важные оговорки
Несмотря на масштаб инцидента, стоит учитывать:
- Неизвестно, были ли все 100 000 зрителей реальными людьми. Возможно, часть аккаунтов использовалась для накрутки просмотров.
- Неясно, как долго зрители оставались на стриме после перехода.
- Нет данных о количестве жертв мошенничества. Неизвестно, сколько человек отсканировали QR‑код и перевели средства.
Контекст: рост угроз от ИИ
Этот случай — часть более широкой тенденции:
- Дипфейки знаменитостей. Например, генеральный директор OpenAI Сэм Альтман стал объектом манипуляций в генераторе видео Sora 2: пользователи создавали ролики, где он крадёт GPU или ест жареного Пикачу.
- Усложнение схем социальной инженерии. Мошенники используют реалистичные аватары и голоса для обмана, заставляя жертв сомневаться в достоверности информации.
Выводы
Инцидент демонстрирует:
- Критическую необходимость верификации контента. Платформы вроде YouTube должны внедрять системы проверки официальных трансляций.
- Риск для репутации компаний. Даже кратковременное существование фейка может нанести ущерб доверию к бренду.
- Потребность в цифровой грамотности. Пользователи должны критически оценивать источники информации, особенно при финансовых предложениях.
Хотя ситуация пока не выглядит катастрофической, она сигнализирует о нарастающей угрозе: технологии ИИ позволяют создавать убедительные подделки, способные влиять на массовое поведение.