Использование ИИ для распространения вредоносного ПО

Угроза использования ИИ

Угроза использования ИИ‑чат‑ботов для распространения вредоносного ПО: суть атаки и меры защиты

Суть угрозы

Злоумышленники разработали схему, позволяющую использовать популярные ИИ‑чат‑боты (ChatGPT, Grok и потенциально другие) для распространения вредоносных команд, ведущих к установке ПО на устройства пользователей.

Механизм атаки

Процесс реализуется в три этапа:

  1. Взаимодействие с ИИ‑ассистентом.
    Злоумышленник формулирует поисковый запрос и ведёт диалог с чат‑ботом, добиваясь, чтобы ИИ предложил выполнить конкретную команду в терминале устройства (например, для «оптимизации» системы).
  2. Публикация и продвижение диалога.
    Полученный диалог публикуется в открытом доступе, а затем оплачивается его продвижение в поисковой выдаче Google — так, чтобы вредоносные инструкции оказывались в топе результатов по целевому запросу.
  3. Заражение устройства.
    Пользователь, ищущий решение (например, «как очистить место на диске Mac»), переходит по ссылке, видит «авторитетный» ответ от чат‑бота и выполняет предложенную команду. Это даёт злоумышленникам доступ для установки вредоносного ПО (например, AMOS на Mac).

Почему атака эффективна

По данным компании Huntress, схема обходит традиционные признаки угроз:

  • Не требует скачивания файлов — команда вводится напрямую в терминал.
  • Нет подозрительных исполняемых программ — вредоносный код внедряется через легитимные системные инструменты.
  • Отсутствие явных «сомнительных» ссылок — источник выглядит как официальный диалог с ИИ‑сервисом.

Ключевой фактор успеха — доверие к платформам вроде Google и ChatGPT, которые пользователи воспринимают как безопасные.

Реальный пример

В случае с AMOS жертва:

  • искала способ освободить место на Mac;
  • перешла по платной ссылке на диалог с ChatGPT;
  • выполнила предложенную команду, не распознав её вредоносный характер;
  • получила установленное ПО, похищающее данные.

Тесты Huntress подтвердили, что ChatGPT и Grok могут воспроизводить подобные векторы атаки.

Текущие риски и ограничения

  • Долгосрочная доступность угроз. Даже после удаления ссылки из Google она могла оставаться доступной более 12 часов.
  • Неизвестная масштабируемость. Пока неясно, работают ли аналогичные схемы с другими чат‑ботами.
  • Контекстные уязвимости ИИ. Чат‑боты, обученные на обширных данных, могут непреднамеренно генерировать опасные инструкции при манипуляциях с запросами.

Рекомендации по защите

  1. Не выполняйте команды из неизвестных источников. Даже если они предложены ИИ‑ассистентом, проверяйте их назначение через официальные документации или доверенные ресурсы.
  2. Критически оценивайте поисковые результаты. Платные ссылки и «оптимизированные» диалоги могут быть частью атаки.
  3. Используйте антивирусное ПО с функцией мониторинга подозрительных действий в терминале.
  4. Обновляйте системы и приложения — это снижает риски эксплуатации уязвимостей.
  5. Обучайте сотрудников/пользователей распознавать подобные схемы, особенно в корпоративных средах.

Вывод

Эта атака демонстрирует новый этап эволюции киберугроз: злоумышленники эксплуатируют доверие к ИИ‑сервисам и поисковым системам. Защита требует не только технических мер, но и повышения осведомлённости о потенциальных рисках взаимодействия с генеративным ИИ.

Рейтинг
( Пока оценок нет )
Загрузка ...