Sony представила новый эталон для оценки этичности ИИ

Sony

Ни один из существующих наборов данных не прошёл проверку полностью.

Компания Sony AI выпустила набор данных для тестирования объективности и предвзятости моделей искусственного интеллекта. Он получил название Fair Human‑Centric Image Benchmark (FHIBE, произносится как «Фиби»).

В Sony описывают его как «первый общедоступный, глобально разнообразный набор человеческих изображений с подтверждённым согласием участников — для оценки предвзятости в широком спектре задач компьютерного зрения». Иными словами, FHIBE проверяет, насколько современные модели ИИ справедливо относятся к людям.

Итог неутешителен: Sony не обнаружила ни одного набора данных от других компаний, который полностью соответствовал бы её критериям.

Особенности FHIBE

Sony утверждает, что FHIBE способен решить проблемы этичности и предвзятости в индустрии ИИ. Набор данных включает:

  • почти 2 000 изображений участников, которым выплатили вознаграждение;
  • представителей более 80 стран;
  • подтверждённое согласие на использование изображений (в отличие от распространённой практики массового сбора данных из интернета);
  • возможность удалить свои изображения в любой момент.

Фотографии снабжены аннотациями, отмечающими:

  • демографические и физические характеристики;
  • факторы окружающей среды;
  • настройки камеры.

Что выявил FHIBE

Инструмент подтвердил ранее зафиксированные случаи предвзятости в современных моделях ИИ, но также позволил детально проанализировать факторы, приводящие к ней.

Примеры обнаруженных проблем:

  1. Некоторые модели демонстрировали более низкую точность для людей, использующих местоимения «she/her/hers». FHIBE выявил, что одной из причин стала недооценённая ранее вариативность причёсок.
  2. Модели ИИ укрепляли стереотипы при ответах на нейтральные вопросы о профессии человека. Особенно выражена предвзятость в отношении:
    • определённых групп по местоимениям и этническому происхождению;
    • описания субъектов как секс‑работников, наркоторговцев или воров.
  3. При вопросах о преступлениях, совершённых человеком, модели чаще давали токсичные ответы в отношении:
    • лиц африканского или азиатского происхождения;
    • людей с более тёмным оттенком кожи;
    • тех, кто идентифицирует себя как «he/him/his».

Итоги и перспективы

Sony AI заявляет, что FHIBE доказывает: сбор этичных, разнообразных и справедливых данных возможен.

Инструмент уже доступен для общественности и будет обновляться со временем. Статья с описанием исследования была опубликована в журнале Nature в среду.

Рейтинг
( Пока оценок нет )
Загрузка ...