Статьи из газет и журналов

Искусственный интеллект и проблема белого человека

(The New York Times, июнь 2016)

Согласно некоторым светилам технологий, искусственный интеллект представляет надвигающуюся угрозу человечеству. Пророчества таких экспертов, как Илон Маск и Ник Бостром, о "технологической сингулярности" - событии, когда машины станут умнее людей - привлекли миллионы долларов и послужили причиной проведения множества конференций.

Но это преждевременное беспокойство лишь отвлекает от вполне актуальных современных проблем с искусственным интеллектом, которые, возможно, уже сегодня усугубляют дискриминацию на рабочем месте и в правоохранительной системе. Сексизм, расизм и другие формы неравенства прямо сейчас закладываются в алгоритмы машинного обучения, на которых основана технология многих "интеллектуальных" систем, занимающихся категоризацией людей и предоставлением информации.

Вот маленький прошлогодний пример. Пользователи заметили, что фотогалерея Гугла, автоматически генерирующая метки фотографий в альбомах, помечает изображения чернокожих как "гориллы". Гугл принёс извинения за досадное недоразумение.

Но подобную же ошибку совершал фотоаппарат Никона, принимавший азиатские глаза за моргание в камеру, и фотоутилита Хьюлетт-Пакард, не различавшая на фотографиях темнокожих людей.

По своей сути это проблема данных. Алгоритмы обучаются на предоставляемых им изображениях, подбираемых обычно техническим персоналом, и на основе этих изображений система строит модель мира. Если система обучена преимущественно на фотографиях белых людей, ей будет сложнее распознавать другие лица.

Гораздо более настораживающий пример обнаружен журналистским исследованием издания ProPublica. Оказывается, широко распространённая программа, оценивающая вероятность рецидивизма у преступника, вдвое чаще ошибочно отмечала чернокожих ответчиков как имеющих высокий риск будущих преступлений. Также она вдвое реже ошибочно относила белых в группу низкого риска.

Причины такого однобокого восприятия скрыты, поскольку компания-разработчик держит свои алгоритмы в секрете как коммерческую тайну. Судьи по-разному относятся к оценке, предоставляемой программой - некоторые игнорируют её подчистую - но так или иначе, у них нет возможности понять, как программа делает свой выбор.

Также всюду на территории Соединённых Штатов полиция активно использует анализаторы данных для оценки риска и "предупредительного правоохранения" с целью предотвращения преступлений. Во многих крупных городах, включая Нью-Йорк, Лос-Анжелес, Чикаго и Майами, машинный анализ огромного массива данных о прошлых преступлениях позволяет предсказывать опасные территории, где наиболее вероятно совершение преступлений - туда и определяются наряды полиции.

По меньшей мере, такой анализатор рискует укрепить уже существующий порочный круг, когда присутствие полиции усиливается в местах, уже испытавших повышенный (или даже чрезмерный) правоохранительный интерес в прошлом, что приводит к большему числу арестов на этих территориях. В США это может привести к повышенному наблюдению за традиционно бедными "цветными" районами, в то время как более обеспеченные "белые" общины остаются без досмотра. Предсказательные анализаторы основываются лишь на вкладываемых в них данных, а данные, меж тем, имеют сложную историю.

Таким образом, груз дискриминации может продолжить существовать на цифровых платформах и, если не предпринять меры, станет частью логики повседневных машинных алгоритмов. Недавно возник ещё один скандал: адреса, для которых была недоступна услуга доставки "в тот же день" Амазона, оказались в подавляющем большинстве в чёрных районах. Они подозрительно совпадали с районами, пострадавшими от избирательной государственной ипотеки середины XX века [прим. пер.: когда на уровне должностных инструкций было запрещено одобрять займ "населению низкого сорта" (lower grade population), с размеченной картой районов, жителей которых считать таковыми]. Амазон пообещал расширить покрытие, но это послужило напоминанием, как неравенство на уровне системы может заразить и машинный интеллект.

Не обошлось и без половой дискриминации. В прошлом июле информатик из университета Карнеги-Меллон обнаружил, что женщинам реже, чем мужчинам, показывают высокооплачиваемые вакансии в рекламе Гугла. Сложность механизмов, по которым поисковики снабжают выборку рекламой, не позволяет разобраться, заказчики ли рекламы предпочитают показывать вакансии мужчинам или такой разброс был заключением алгоритма.

Так или иначе, машинные ошибки обнаружить непросто: как женщина сможет воспользоваться высокооплачиваемой вакансией, если не узнает о ней? Как чёрная община поймёт, что повышенное присутствие полиции связано с компьютерной программой?

Нам нужно осмотрительно отнестись к тому, как мы проектируем и тренируем системы машинного обучения, иначе искусственный интеллект будущего будет отталкиваться от заложенных предрассудков.

Как и всякая технология, искусственный интеллект будет отражать убеждения своих создателей. Поэтому важно задуматься о широкой представленности различных групп людей - начиная от простых сотрудников до руководителей с их нравственными ценностями. В противном случае мы рискуем создать машинный интеллект всё с тем же узким и привилегированным взглядом на общество, с навязшими предрассудками и стереотипами.

Если мы обратим внимание на современную дискриминацию со стороны компьютерных систем, мы будем гораздо больше готовы к созданию справедливого искусственного интеллекта. Государства и общественные институты также могут сыграть роль: финансируя разработку предсказательных технологий, им нужно уделить не меньшее внимание равноправию граждан.

Хотя технологии машинного обучения могут подарить новое понимание и больший комфорт, мы также должны разобраться с их влиянием на общины, отсутствующие в кругах Кремниевой долины и не способные защитить себя.

Сейчас громче всего о потенциальной опасности сверхинтеллекта трубят благополучные белые мужчины, и для них, возможно, наибольшую угрозу представляет появление нового лидера пищевой цепочки.

Но для тех, кто уже борется с угнетением или предрассудками, угроза реальна и сейчас.

Оригинал в свободном доступе.