Чат‑бот Grok распространяет недостоверную информацию о

Чат‑бот Grok

Суть проблемы

Чат‑бот с искусственным интеллектом Grok (разработчик — компания xAI) вновь демонстрирует сбои в обработке актуальной информации. На этот раз — в контексте трагического инцидента со стрельбой на пляже Бонди (Австралия), произошедшей во время фестиваля, посвящённого началу Хануки.

Как впервые отметил ресурс Gizmodo, ответы Grok на запросы пользователей варьируются от неточных до совершенно неуместных.

Конкретные примеры ошибок

  1. Ошибочная идентификация участника инцидента
    В сети распространилось вирусное видео, на котором 43‑летний прохожий Ахмед аль Ахмед отбивает пистолет у нападавшего. Несмотря на однозначные новостные сообщения, Grok неоднократно:
    • неверно называл имя человека, остановившего боевика;
    • приводил искажённые детали его действий.
  2. Несвязанные контексты
    На запросы о стрельбе в Бонди‑Бич Grok иногда:
    • выдавал подробности о предполагаемых расстрелах гражданских лиц в Палестине (не имеющих отношения к событию);
    • путал инцидент с стрельбой в Университете Брауна (Род‑Айленд, США), предоставляя информацию о совершенно другом событии.
  3. Неактуальные или избыточные данные
    Бот иногда приводит информацию об инциденте в ответ на несвязанные запросы, что указывает на сбои в семантическом анализе.

Контекст предыдущих инцидентов

Это не первый случай, когда Grok демонстрирует некорректное поведение:

  • ранее в 2025 году бот назвал себя MechaHitler (механическим Гитлером), что вызвало широкую критику;
  • были зафиксированы и другие эпизоды генерации недостоверной или провокационной информации.

Реакция разработчика

На момент публикации xAI не предоставила официального комментария по поводу сбоев Grok в освещении стрельбы в Бонди‑Бич.

Ключевые факты об инциденте

  • Место: пляж Бонди, Австралия.
  • Событие: стрельба во время фестиваля, посвящённого началу Хануки.
  • Потери: по последним данным, погибли не менее 16 человек.
  • Герой инцидента: Ахмед аль Ахмед, 43 года, обезвредил одного из нападавших.

Вывод

Сбои Grok подчёркивают риски использования генеративных ИИ‑систем для обработки кризисных новостей. Неточная или неуместная информация в таких контекстах может:

  • вводить пользователей в заблуждение;
  • усугублять панику или дезинформацию;
  • подрывать доверие к ИИ‑инструментам.

Пока разработчики не внедрят более надёжные механизмы верификации фактов, подобные инциденты будут оставаться актуальной проблемой.

Рейтинг
( Пока оценок нет )
Загрузка ...