Сексизм и расизм в ИИ и нейросетях

При переводе текстов с испанского на английский, в которых говорится о женщинах, Google Translate почему-то переводит как «он сказал» или «он сделал». Программа на камере Nikon, предупреждающая людей о моргании во время съемки, идентифицирует азиатов как постоянно моргающих. Популярный алгоритм Word embedding, используемый для анализа естественных языков, почему-то считает, что европейские и американские имена «хорошие», а афроамериканськие — «некрасивые».

Только левое изображение искусственный интеллект идентифицирует как «невесту» или «свадьба». Правое для него — «костюмированный перформанс»

Это лишь несколько из многих примеров того, как искусственный интеллект систематически дискриминирует различные группы людей.

Предвзятость трудно назвать специфической чертой искусственного интеллекта. Впрочем, исследователи считают, что расширение сферы его применения делает ее особенно актуальной. То, что искусственный интеллект теперь всюду, требует системных решений. Ниже представлено несколько возможных стратегий.

И в академической среде, и в индустрии компьютерные ученые стремятся получать славу (от публикаций сообщений в медиа) за тренировку все более сложных алгоритмов. Гораздо меньше внимания уделяя тому, как данные для этих тренировок собираются, обрабатываются и организуются.

А именно тренировочные данные и является главным фактором предубеждений искусственного интеллекта. Большинство задач для машинного обучения тренируются на больших, аннотированных базах данных.

Например, нейросети, их используют для классификации изображений, тренируют на ImageNet — наборе более 14 миллионов фотографий. А алгоритмы, работающий с естественными языками, тренируются на корпусах языков из миллиардов слов. Эти данные, как правило, получают из открытых источников в Интернете, в частности с таких ресурсов, как Google Images, Google News или Википедия. Собранную информацию обозначают специальными аннотациями — часто это делают студенты или через краудсорсинг платформы, такие как Amazon Mechanical Turk.

Такие методы невольно генерируют данные, содержащие расовые, гендерные или этнические стереотипы.

Скажем, более 45% изображений ImageNet родом из Соединенных Штатов, где проживает лишь 4% мирового населения. Тем временем в Индии и Китае, где вместе живет 36% всего населения земного шара, были сделаны только 3% фотографий. Как следствие, алгоритмы, которые тренируются на этих изображениях, распознают фотографию традиционной американской невесты в белом платье как «женщину», «невесту», «платье» и «свадьба», а фотографию с невестой из Северной Индии программа идентифицирует как «искусство перформанса» и «костюм».

В медицине алгоритмы машинного обучения особенно уязвимы к предвзятым базам данных, ведь продуцирования и распознавания медицинской информации стоит чуть ли не дороже всего. В прошлом году исследователи использовали глубинное обучение, чтобы идентифицировать рак кожи с помощью фотографий. Алгоритмы тренировали на наборе из 129 450 изображений, 60% которых были взяты из Google Image. Однако темнокожие люди присутствовали менее чем на 5% этих изображений. Следовательно, работа алгоритма может быть очень разной у разных человеческих популяций.

Другой источник предубеждения можно проследить в самих алгоритмах.

Типовая программа машинного обучения — максимизация общей точности предсказания для тренировочных данных. Поэтому, если специфическая группа индивидов встречается в тренировочных данных чаще, то программа самостоятельно подстраивается под эту группу, чтобы увеличить общую точность.

Через петли обратной связи алгоритмы с ошибками лишь множат стереотипы. Скажем, Google Translate, который предпочитает местоимениям мужского рода, каждый раз увеличивает процентное соотношение маскулинизмов в Интернете, переводя «он сказал» вместо «она сказала». Это обусловлено соотношением мужских местоимений в женских в английском языке на уровне 2 к 1. Характерно, что с 1960-х это соотношение снизилось с 4 к 1 благодаря масштабным социальным трансформациям.

Смещение данных часто отражают глубокие социальные и властные дисбалансы. Википедия, например, выглядит как богатый и разнообразный источник информации. Но лишь 18% биографических статей в ней о женщинах. А статьи о женщинах содержат больше информации о семье или романтических партнерах и больше ссылаются на статьи о мужчинах, нежели наоборот, что делает мужчин более видимыми для поисковых систем.

Следовательно, нужно обратить гораздо больше внимания на то, как именно формируются базы данных, на которых тренируется искусственный интеллект, а также предпринять шаги, чтобы эти базы были разнообразными и не дискриминировали ни одну группы по полу или цвету кожи.

Некоторые исследователи уже начали работать над этим. Например, компьютерные ученые недавно обнаружили, что искусственный интеллект, который распознает лицо, допускает гораздо больше ошибок, когда ему случаются черные женщины, чем белые. Соотношение ошибок составляло аж 35% до 0,8%. Чтобы решить эту проблему, исследователи создали новую базу данных из 1270 человек и заставили программу «переучиться».

Все тренировочные данные обязательно должны содержать информацию о том, по каким критериям их собрали и обозначили. Если эти данные касаются людей, то непременной является информация о географии, поле, этнической принадлежности и другие существенные демографические характеристики. Если обозначение происходит через краудсорсинг, тогда нужны базовые данные от участников краудсорсинга вместе с точными инструкциями, которые им предоставили. Некоторые журналы уже требуют эти данные от авторов, которые хотят опубликовать свои статьи. Например, Nature уже заставляет авторов загружать микромассивы данных на репозиторий с открытым доступом Gene Expression Omnibus. Владельцы баз данных, таких как OpenML или Kaggle, должны делать то же самое.

В конце концов, ИТ-специалисты должны стремиться к тому, чтобы их алгоритмы были устойчивее к человеческим предубеждениям. Для этого можно использовать разные подходы. Один из них заключается в том, чтобы программировать эти смещения и «подталкивать» программы идти от противного. Другой — это изменение самого алгоритма таким образом, чтобы он меньше зависел от чувствительных параметров, в частности пола, этничности, расы или уровня дохода, а также любой информации, которая коррелируется с этими характеристиками.

Такие подходы являются очень перспективными, но их еще нужно протестировать в реальном мире. Нужно также, чтобы разработчики алгоритма четко осознали, каких именно предрассудков они хотят избегать.

Пока программисты вместе со специалистами по этике и социальных наук пытаются улучшить объективность искусственного интеллекта, мы должны задуматься над несколькими ключевыми вопросами. Данные, которые использует искусственный интеллект, должны отражать мир таким, каким он есть, или таким, каким мы бы хотели, чтобы он был? Если искусственные алгоритмы используют для оценки кандидата на работу, то что приоритетнее: его таланты или, возможно, вероятность того, что он хорошо будет работать в коллективе? Кто должен решать, какому из этих аспектов следует придавать первоочередное преимущество?

Сегодня уже существуют инициативы, которые изучают эти вопросы. Например, в Стэнфордском университете в Калифорнии действует инициатива «Искусственный интеллект с человеческим лицом» (Human-Centered AI). Важно, чтобы студенты изучали эти проблемы еще в своих аудиториях. Социальные проблемы искусственного интеллекта должны стать такой же неотъемлемой частью образования, как и то, как его алгоритмы работают.

Цифровые устройства, приложения и процессы определяют нашу ежедневную жизнь, поведение и культуру. Искусственный интеллект трансформирует экономику и общество, меняет то, как мы общаемся, работаем и отдыхаем, порождает новые формы политики и управления. Наши общества очень долго терпели неравенство. Искусственный интеллект не должен ее продолжать или даже углублять.

0

Комментарии


Чтобы оставить комментарий, пожалуйста, авторизируйтесь!