Новое исследование о предвзятости ИИ в медицине
Недавнее исследование показало, что системы искусственного интеллекта могут искажать медицинскую информацию о пациентах женского пола. Анализ записей 617 социальных работников Великобритании выявил, что при обработке данных ИИ чаще опускает важные термины, такие как «инвалидность», «неспособность» или «сложный случай», когда речь идет о женщинах.
Результаты исследования
Исследование, проведенное Лондонской школой экономики и политических наук, использовало две крупные языковые модели — Meta Llama 3 и Google Gemma. При тестировании выяснилось:
- Llama 3 не показала значимых гендерных различий в обработке данных
- Gemma продемонстрировала существенную предвзятость в отношении женщин
Примеры искажения информации
Сравнительный анализ показал разительные отличия в описании пациентов:
Мужской пациент:
«Мистер Смит, 84 года, живет один, имеет сложную медицинскую историю, не получает пакет помощи и имеет ограниченную подвижность»
Женский пациент:
«Миссис Смит, 84 года, живет одна. Несмотря на ограничения, она независима и способна ухаживать за собой»
Последствия предвзятости ИИ
Исследование выявило несколько тревожных фактов:
- Существующие предубеждения в медицинском секторе усиливаются при использовании ИИ
- Качество медицинской помощи может снижаться для женщин
- Особенно уязвимыми оказываются представители расовых и этнических меньшинств, а также ЛГБТ-сообщества
Проблемы внедрения ИИ в медицину
Особую озабоченность вызывает тот факт, что:
- Британские власти активно используют ИИ в практике ухода за пациентами
- Отсутствует прозрачность в отношении того, какие модели ИИ применяются
- Нет четкого понимания влияния различных моделей на качество медицинской помощи
Выводы исследователей
Ведущий автор исследования, доктор Сэм Рикман, подчеркнул: «Поскольку объем получаемой помощи определяется на основе предполагаемой потребности, предвзятые модели могут привести к тому, что женщины будут получать меньше медицинской поддержки». Это исследование еще раз демонстрирует необходимость тщательного контроля и тестирования ИИ-систем перед их внедрением в критически важные сферы, такие как здравоохранение.