Пожалуй, самая большая проблема всего бума машинного обучения, искусственного интеллекта, когнитивных сервисов и т.д. лежит не в области составления конкретного алгоритма или накопления необходимого массива данных, а в том, как мы, как социум, к этому относимся.
Причем вопрос не только в уже растиражированном экономико-социальном аспекте вроде вытеснения отдельных профессий с рынка труда или, наоборот, усиления некоторых за счет новых возможностей, — но и в том, что именно мы как разработчики, ученые, интепретаторы, внедренцы и т.п. зашиваем в такие алгоритмы.
Время от времени я вижу на разных хакатонах, стартаперских тусовках и в лентах новостей проявления, например, такой идеи: а что, если по анализу фотографии (или видео-ряда) предсказывать хакактер человека? Его тип личности (интраверт, экстраверт и еще с десяток других систем), насколько он будет хорошим сотрудником, врет/не врет, кредитоспособность и много чего еще.
Все это называется физиогномикой и в широких кругах называется псевдонаукой, просторы которой простираются от банального шарлатанства всяких экстрасенсов до онаучненного оправдания расизма, с которым человечество то и дело сталкивается с самых разных формах.
Интересный вопрос — а какое отношение к этому имеет машинное обучение?
В прошлом году пара ученых из Китая Xiaolin Wu and Xi Zhang, — хотя страна тут не важна, потому что (и в этом главная проблема!) подобные работы плодятся по всему миру, — выкатили исследование о том, как с помощью натренерованной сеточки предсказать по фотографии человека, является ли он криминальным элементом или нет. При детальном рассмотрении оказывается, что в работу неявно (?) и, возможно, бессознательно, зашито очень много допущений и, в целом, неверных, предположений.
И хотя, даже здравый смысл, подсказывает, что невозможно по фотографии человека назвать его с 90% преступником, "научный" подход, объективность нейронных сетей, компьютеров, машинного обучения и вот этого всего — позволяют подвести достаточный фундамент для того, чтобы СМИ, социум и, что еще хуже, лица, принимающие соответствующие решения, приняли это все на веру.
===
Так вот, на этот счет и по поводу этого "исследования", в частности - большая детальная статья за авторством Blaise Agüera y Arcas, Margaret Mitchell и Alexander Todorov (на английском).
Потратьте 30-40 минут своего времени. Это важно. Я бы даже сказал, что это одна из самых важных статей на тему машинного обучения за последнее время — "Новые одеяния физиогномики"
https://medium.com/@blaisea/physiognomys-new-clothes-f2d4b59fdd6a #machine #learning #ai #bias
===
P.s. Очевидно все это касается не только распознавания лиц, но и вообще любых других ситуаций, когда мы переносим принятие решения на компьютер и как бы снимаем с себя ответственность (потому что "машина не может ошибаться"). Вот тут всегда должен стоять вопрос — а на заложили ли мы в данные и алгоритмы существующие в обществе стереотипы? Не закрепили ли мы в сеточке существующее неравенство, придав ему научного шарма и оправдания?