В феврале 2026 года компания X опубликовала код алгоритма рекомендаций «для вас», позиционируя это как шаг к прозрачности. Однако исследователи указывают на существенные ограничения открытости и ставят под сомнение реальную полезность опубликованных данных. Ниже — разбор основных тезисов и аргументов.
1. Что именно опубликовано и в чём проблема «отредактированной» версии
- Формальный шаг к открытости. Компания X — единственная из крупных соцсетей, кто частично открывает код алгоритма рекомендаций. Илон Маск подчеркнул: это позволяет видеть, «как мы стараемся сделать [алгоритм] лучше в режиме реального времени и прозрачно».
- Реальность: код — «отредактированная» версия. По словам Джона Тикстана (доцент кафедры компьютерных наук Корнеллского университета), опубликованный код:
- повторяет структуру версии 2023 года;
- создаёт «видимость прозрачности», но не даёт возможности провести аудит или надзор.
«На самом деле это вообще невозможно», — констатирует Тикстан.
2. Ключевые недостатки опубликованного кода
а) Отсутствие данных об обучении модели
Мохсен Форухифар (доцент кафедры бизнес‑технологий Университета Карнеги‑Меллон) отмечает: код не содержит информации о обучающих данных. Это критично, потому что:
- предвзятость данных может транслироваться в решения модели;
- без знания датасетов невозможно оценить объективность алгоритма.
б) «Чёрные ящики» нейронных сетей
Новая версия алгоритма использует большую языковую модель (подобную Grok) для ранжирования постов. Это усиливает непрозрачность:
- раньше рейтинг поста рассчитывался по явным метрикам (лайки, репосты, ответы);
- теперь решение принимает нейросеть, чьи внутренние механизмы не объясняются.
«Гораздо больше решений принимается нейронными сетями black box, которые обучаются на своих данных», — говорит Тикстан.
в) Урезание деталей по «соображениям безопасности»
В версии 2023 года компания раскрывала весовые коэффициенты взаимодействий (например, ответ «стоил» 27 ретвитов). Сейчас эта информация удалена.
г) Нехватка компонентов для воспроизведения
Руджеро Лаццарони (научный сотрудник Университета Граца) поясняет:
«У нас есть код для запуска алгоритма, но у нас нет модели, которая вам нужна для запуска алгоритма».
То есть опубликованный код — лишь часть системы, недостаточная для полного анализа.
3. Почему пользователи делают ошибочные выводы
После публикации кода в X появились посты с «советами» для авторов контента:
- «X вознаградит людей, которые вступят в беседу»;
- «Нужно размещать видео»;
- «Следует придерживаться своей ниши».
Эксперты (в том числе Тикстан) предупреждают: эти выводы необоснованны, так как опубликованный код не даёт ключей к пониманию реальных механизмов ранжирования.
4. Более широкие последствия
Проблемы алгоритма X отражают тренды в сфере ИИ:
- Оптимизация под вовлечённость, а не под благо пользователя. Лаццарони указывает: компании настраивают модели так, чтобы максимизировать прибыль, а не заботиться о психическом здоровье аудитории.
- Перенос проблем на GenAI. Тикстан отмечает: аналогичные вызовы (предвзятость, непрозрачность) возникнут и в чат‑ботах с ИИ.
«Вы можете экстраполировать проблемы соцсетей на платформы GenAI».
Вывод
Публикация кода алгоритма X — символический шаг к прозрачности, но не реальный инструмент для аудита. Ключевые препятствия:
- отсутствие данных об обучении;
- использование «чёрных ящиков» нейросетей;
- урезание критически важных деталей;
- неполнота кода для воспроизведения системы.
Это ставит под сомнение способность исследователей и пользователей понять, как именно платформа принимает решения, и поднимает вопросы о ответственности компаний в эпоху генеративного ИИ.