Анализ ситуации с «прозрачностью» алгоритма X

Анализ ситуации с «прозрачностью» алгоритма X

В феврале 2026 года компания X опубликовала код алгоритма рекомендаций «для вас», позиционируя это как шаг к прозрачности. Однако исследователи указывают на существенные ограничения открытости и ставят под сомнение реальную полезность опубликованных данных. Ниже — разбор основных тезисов и аргументов.

1. Что именно опубликовано и в чём проблема «отредактированной» версии

  • Формальный шаг к открытости. Компания X — единственная из крупных соцсетей, кто частично открывает код алгоритма рекомендаций. Илон Маск подчеркнул: это позволяет видеть, «как мы стараемся сделать [алгоритм] лучше в режиме реального времени и прозрачно».
  • Реальность: код — «отредактированная» версия. По словам Джона Тикстана (доцент кафедры компьютерных наук Корнеллского университета), опубликованный код:
    • повторяет структуру версии 2023 года;
    • создаёт «видимость прозрачности», но не даёт возможности провести аудит или надзор.

«На самом деле это вообще невозможно», — констатирует Тикстан.

2. Ключевые недостатки опубликованного кода

а) Отсутствие данных об обучении модели
Мохсен Форухифар (доцент кафедры бизнес‑технологий Университета Карнеги‑Меллон) отмечает: код не содержит информации о обучающих данных. Это критично, потому что:

  • предвзятость данных может транслироваться в решения модели;
  • без знания датасетов невозможно оценить объективность алгоритма.

б) «Чёрные ящики» нейронных сетей
Новая версия алгоритма использует большую языковую модель (подобную Grok) для ранжирования постов. Это усиливает непрозрачность:

  • раньше рейтинг поста рассчитывался по явным метрикам (лайки, репосты, ответы);
  • теперь решение принимает нейросеть, чьи внутренние механизмы не объясняются.

«Гораздо больше решений принимается нейронными сетями black box, которые обучаются на своих данных», — говорит Тикстан.

в) Урезание деталей по «соображениям безопасности»
В версии 2023 года компания раскрывала весовые коэффициенты взаимодействий (например, ответ «стоил» 27 ретвитов). Сейчас эта информация удалена.

г) Нехватка компонентов для воспроизведения
Руджеро Лаццарони (научный сотрудник Университета Граца) поясняет:

«У нас есть код для запуска алгоритма, но у нас нет модели, которая вам нужна для запуска алгоритма».

То есть опубликованный код — лишь часть системы, недостаточная для полного анализа.

3. Почему пользователи делают ошибочные выводы

После публикации кода в X появились посты с «советами» для авторов контента:

  • «X вознаградит людей, которые вступят в беседу»;
  • «Нужно размещать видео»;
  • «Следует придерживаться своей ниши».

Эксперты (в том числе Тикстан) предупреждают: эти выводы необоснованны, так как опубликованный код не даёт ключей к пониманию реальных механизмов ранжирования.

4. Более широкие последствия

Проблемы алгоритма X отражают тренды в сфере ИИ:

  • Оптимизация под вовлечённость, а не под благо пользователя. Лаццарони указывает: компании настраивают модели так, чтобы максимизировать прибыль, а не заботиться о психическом здоровье аудитории.
  • Перенос проблем на GenAI. Тикстан отмечает: аналогичные вызовы (предвзятость, непрозрачность) возникнут и в чат‑ботах с ИИ.

«Вы можете экстраполировать проблемы соцсетей на платформы GenAI».

Вывод

Публикация кода алгоритма X — символический шаг к прозрачности, но не реальный инструмент для аудита. Ключевые препятствия:

  • отсутствие данных об обучении;
  • использование «чёрных ящиков» нейросетей;
  • урезание критически важных деталей;
  • неполнота кода для воспроизведения системы.

Это ставит под сомнение способность исследователей и пользователей понять, как именно платформа принимает решения, и поднимает вопросы о ответственности компаний в эпоху генеративного ИИ.

Рейтинг
( Пока оценок нет )
Загрузка ...