Сейчас мы говорим «обезьяна с гранатой». Через сто лет, возможно, будут говорить «человек с ИИ».В новом интервью профессора Томаса Метцингера – члена высшей экспертной группы ЕС по разработке этических принципов ИИ – озвучены два весьма тонких для понимания, но очень важных вопроса.
1) Роботы-убийцы и активная эвтаназия – есть ли отличия?Смертельное автономное оружие (т.н. роботы-убийцы) – это системы, которые используют ИИ в бою, чтобы решать, какую цель атаковать, уничтожить или даже убить.
Главный вопрос, пока еще, хоть и с трудом, но все же сдерживающий превращение роботов-убийц в главный фактор новой гонки вооружений - можно ли привлечь кого-либо к ответственности, если машина приняла неправильное решение?
Самое опасное в этом вопросе – его универсальность.
Ведь ровно тот же вопрос стоит, например, и по отношению:
- к автономным автомобилям;
- к системам активной эвтаназии.
Про самоуправляемые авто и так всем понятно – пресловутые проблемы, кого задавить, если нет иных вариантов, и чья жизнь дороже – водителя или пешехода …
А про активную эвтаназию поясню. Пассивная - предполагает прекращение введения препаратов, поддерживающих жизнь пациента, а активная — введение препарата от которого пациент умирает. Активная э. бывает добровольной и недобровольной – т.е. без согласия пациента. При этом кто-то должен взять на себя ответственность и решить: «Пусть этот человек умрет».
Но ведь страшно даже рассуждать о таком. И кому хотелось бы, стоя у больничной койки, произносить подобные слова?
Так вот сейчас, по словам Метцингера, в Нидерландах уже стоит вопрос о перекладывании таких решений на ИИ. Просто, удобно, никого не напрягает и никаких душевных мук.
Только чем это отличается от роботов-убийц?
2) Где проходит «красная черта» в применении любого робота-убийцы (военного, медицинского, автомобильного …)?Проблема вовсе не в том, чтобы дать машинам правильные этические ценности. Проблема в «согласовании ценностей» ИИ и людей. И пока не понятно, как их согласовывать, поскольку люди сами не придерживаются своих собственных этических ценностей.
Иными словами, всегда существует конфликт разных целей у отдельных людей и в разных обществах. Наши общества не являются этически последовательными или связными, наша политика – тем более.
- Вы и ваш коллега.
- Британский и китайский военный.
- Президенты России и США.
Согласуются ли их этические ценности?
В итоге, нам самим сложно прогнозировать, какие решения примет тот или иной человек, и это создает реальный риск.
А если этот человек врач? Или генерал? Или президент страны?
Проще говоря, если вы включаете в цепочку принятия решений очень эффективный, быстрый и продвинутый ИИ, вы, по сути:
- подключаете ИИ к человеческим мозгам, почти не изменившимся со времен каменного века;
- подключаете ИИ к мозгу конкретных людей, - возможно, жадных, ревнивых, эгоистичных и амбициозных.
А раз так, то самим включением ИИ в цепочку принятия решений, вы непрогнозируемо увеличиваете риски.
Поэтому нет никакой проблемы заложить в робота-убийцу (да и в любой ИИ) конкретные этические ценности.
В реальности, мы сами – главная проблема.
И «красная черта» проходит через нас, а не через ИИ.
Текст и подкаст интервью
https://www.br.de/nachrichten/kultur/killerroboter-ethik-interview-thomas-metzinger-philosophie,RVdgEgsКонтекст военных роботов-убийц
https://www.br.de/nachrichten/deutschland-welt/killer-roboter-fakten-ueber-toedliche-systeme,R1wD3RsМой пост о том, какая страшная штука – беспилотные летающие убийцы
https://t.me/theworldisnoteasy/763 #ЭтикаИИ