Угроза использования ИИ‑чат‑ботов для распространения вредоносного ПО: суть атаки и меры защиты
Суть угрозы
Злоумышленники разработали схему, позволяющую использовать популярные ИИ‑чат‑боты (ChatGPT, Grok и потенциально другие) для распространения вредоносных команд, ведущих к установке ПО на устройства пользователей.
Механизм атаки
Процесс реализуется в три этапа:
- Взаимодействие с ИИ‑ассистентом.
Злоумышленник формулирует поисковый запрос и ведёт диалог с чат‑ботом, добиваясь, чтобы ИИ предложил выполнить конкретную команду в терминале устройства (например, для «оптимизации» системы). - Публикация и продвижение диалога.
Полученный диалог публикуется в открытом доступе, а затем оплачивается его продвижение в поисковой выдаче Google — так, чтобы вредоносные инструкции оказывались в топе результатов по целевому запросу. - Заражение устройства.
Пользователь, ищущий решение (например, «как очистить место на диске Mac»), переходит по ссылке, видит «авторитетный» ответ от чат‑бота и выполняет предложенную команду. Это даёт злоумышленникам доступ для установки вредоносного ПО (например, AMOS на Mac).
Почему атака эффективна
По данным компании Huntress, схема обходит традиционные признаки угроз:
- Не требует скачивания файлов — команда вводится напрямую в терминал.
- Нет подозрительных исполняемых программ — вредоносный код внедряется через легитимные системные инструменты.
- Отсутствие явных «сомнительных» ссылок — источник выглядит как официальный диалог с ИИ‑сервисом.
Ключевой фактор успеха — доверие к платформам вроде Google и ChatGPT, которые пользователи воспринимают как безопасные.
Реальный пример
В случае с AMOS жертва:
- искала способ освободить место на Mac;
- перешла по платной ссылке на диалог с ChatGPT;
- выполнила предложенную команду, не распознав её вредоносный характер;
- получила установленное ПО, похищающее данные.
Тесты Huntress подтвердили, что ChatGPT и Grok могут воспроизводить подобные векторы атаки.
Текущие риски и ограничения
- Долгосрочная доступность угроз. Даже после удаления ссылки из Google она могла оставаться доступной более 12 часов.
- Неизвестная масштабируемость. Пока неясно, работают ли аналогичные схемы с другими чат‑ботами.
- Контекстные уязвимости ИИ. Чат‑боты, обученные на обширных данных, могут непреднамеренно генерировать опасные инструкции при манипуляциях с запросами.
Рекомендации по защите
- Не выполняйте команды из неизвестных источников. Даже если они предложены ИИ‑ассистентом, проверяйте их назначение через официальные документации или доверенные ресурсы.
- Критически оценивайте поисковые результаты. Платные ссылки и «оптимизированные» диалоги могут быть частью атаки.
- Используйте антивирусное ПО с функцией мониторинга подозрительных действий в терминале.
- Обновляйте системы и приложения — это снижает риски эксплуатации уязвимостей.
- Обучайте сотрудников/пользователей распознавать подобные схемы, особенно в корпоративных средах.
Вывод
Эта атака демонстрирует новый этап эволюции киберугроз: злоумышленники эксплуатируют доверие к ИИ‑сервисам и поисковым системам. Защита требует не только технических мер, но и повышения осведомлённости о потенциальных рисках взаимодействия с генеративным ИИ.