Продолжаем тему искуственного интеллекта и морали. Из примера со скрепками мы поняли, что умные машины должны быть запрограммированы не только на эффективное выполнение задач, но и на гуманное поведение. Но как запрограммировать мораль? С очевидными правилами вроде "Нельзя убивать людей" всё понятно. Но реальные жизненные дилеммы намного сложнее. К тому же, у разных людей разные понятия о том, что такое хорошо, а что такое плохо. Так какие принципы поведения тогда зашивать в машину?
В июле прошлого года MIT Media Lab запустила интересный тест. В нём вы должны принять решение за беспилотную машину, которая несётся со сломанными тормозами. Ехать прямо и сбить маму с ребенком или свернуть влево и сбить мужчину? Врезаться в бетонную преграду и убить пассажира или свернуть и убить пешехода? Классическая "дилемма вагонетки", примененная к действительно актуальной проблеме. Этот тест прошли 1,3 миллиона человек, а его создатели получили 18 миллионов ответов на моральные дилеммы - неплохой материал для моделирования "коллективной морали". На основе этих данных учёные из MIT и Карнеги-Мелон разработали систему для принятия этических решений. Неплохая идея, но полученная система в итоге этична настолько же, насколько и полтора миллиона случайных людей из интернета, желающих поиграться в машину-убийцу. Её решения отображают стереотипы общества: к примеру, она скорее убьет бездомного или преступника, чем обычного человека.
https://theoutline.com/post/2401/what-would-the-average-human-do А вот сам тест, если не видели - покликайте, забавная штука:
http://moralmachine.mit.edu. Когда я проходил его год назад, я долго мучился на некоторых вопросах, оценивая, чьи жизни важнее. А теперь решил пройти ещё раз и только сейчас заметил, что почти в каждом примере приходится выбирать между убийством людей, которые нарушают правила дорожного движения (переходят на красный), и тех, кто не нарушает правила. Это сильно упростило задачу - я просто каждый раз выбирал убивать тех, кто нарушает правила. Действительно, мораль уже вшита в формальные правила поведения на дороге. Нарушаешь ПДД - рискуешь жизнью. Исходя из того же принципа, я легко сделал выбор между "врезаться в отбойник, убив пассажира" и "свернуть, спасти пассажира, убить пешехода". Пешеход ни в чем не виноват. Если он не нарушает правила движения, он не должен страдать от неполадок беспилотной машины. А вот её пассажиры, садясь в машину, принимают на себя риски, в том числе и связанные с отказом тормозов. Логично?