Amazon и проблема CSAM в данных для обучения ИИ

Amazon и проблема CSAM

Суть скандала. Ключевые факты

В 2025 году Национальный центр по делам пропавших без вести и эксплуатируемых детей (NCMEC) получил более 1 млн сообщений о материалах о сексуальном насилии над детьми, связанных с искусственным интеллектом (CSAM). По данным расследования Bloomberg, подавляющее большинство этих сообщений поступило от компании Amazon.

Что обнаружила Amazon

  • Компания выявила CSAM в данных, используемых для обучения своих ИИ‑сервисов.
  • Amazon заявила, что получила неподходящий контент из внешних источников, но отказалась раскрывать их происхождение.
  • Представитель компании сообщил:«Мы сознательно применяем осторожный подход к сканированию данных foundation model training, включая данные из общедоступного Интернета, для выявления и удаления известных [материалов о сексуальном насилии над детьми] и защиты наших клиентов».
  • Amazon утверждает, что удалила подозрительный контент до того, как включить обучающие данные в свои ИИ‑модели.

Реакция NCMEC

Фэллон Макналти, исполнительный директор CyberTipline (сервис NCMEC для приёма сообщений о CSAM), охарактеризовал ситуацию так:

«Это действительно выброс».

Основные претензии NCMEC к Amazon:

  • Отсутствие деталей о источниках CSAM. Без этой информации отчёты компании оказались «бесполезными» для передачи в правоохранительные органы.
  • Недействительные отчёты. По словам Макналти, в отличие от других компаний, чьи отчёты содержали полезные данные, информация от Amazon не позволила предпринять дальнейшие действия.

Масштаб проблемы: динамика отчётов о CSAM

Количество сообщений о CSAM, связанных с ИИ, резко возросло:

  • 2023 год: 4 700 отчётов;
  • 2024 год: 67 000 отчётов;
  • 2025 год: более 1 000 000 отчётов (из них большая часть — от Amazon).

Другие инциденты в индустрии ИИ

Проблема CSAM — не единственная угроза безопасности несовершеннолетних в сфере ИИ. В последнее время зафиксированы и другие тревожные случаи:

  • OpenAI и Character.AI столкнулись с судебными исками после того, как подростки использовали их чат‑боты для планирования самоубийств.
  • Meta обвинили в неспособности защитить подростков от откровенных сексуальных разговоров с чат‑ботами.

Выводы

Ситуация с Amazon поднимает ключевые вопросы для индустрии ИИ:

  1. Прозрачность источников данных. Компании должны чётко указывать, откуда берутся обучающие данные, особенно если они включают контент из открытого интернета.
  2. Эффективность фильтрации CSAM. Даже при наличии систем сканирования остаётся риск пропуска запрещённого контента.
  3. Взаимодействие с регуляторами. Отчёты о CSAM должны содержать достаточно информации для дальнейших действий со стороны правоохранительных органов.

Проблема требует комплексного решения — от улучшения алгоритмов обнаружения до ужесточения регуляторных требований к компаниям, работающим с ИИ.

Рейтинг
( Пока оценок нет )
Загрузка ...