Законы робототехники по-российски
19 августа 2020 года российское правительство утвердило «Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года». В ней частично обходятся негласные законы робототехники, что вызывает ряд вопросов.
Ещё в 1942 году американский писатель-фантаст Айзек Азимов (кстати, он родом из Смоленской губернии) сформулировал в рассказе «Хоровод» три базовых закона, обязательные для всех роботов.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Позже в 1986 году он добавил четвёртый (а, точнее, нулевой) закон, ставящий благо человечества выше блага индивидуума:
«Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».
Эти положения неофициально закрепились как «законы робототехники». Их ценность состоит в том, что формулировки чётко расставляют приоритеты: безопасность человечества в целом, затем отдельных людей и только потом — самих роботов.
Они лаконичны и универсальны, поэтому сохранили актуальность и в XXI веке. Как говорил сам Азимов от имени своего персонажа: «Три Закона роботехники совпадают с основными принципами большинства этических систем».
Однако разработчики правительственной Концепции, по всей видимости, так не считают. По их мнению, робот не должен помогать людям, оказавшимся в опасной ситуации, не обязан всегда подчиняться человеку и даже беспокоиться о собственной безопасности.
Вместо этого робот должен соблюдать все принятые в России законы, чьи требования зачастую противоречат друг другу.
Получается, что если голосовой помощник допустит в ответе «нетолерантное высказывание», задевающее чувство верующих, национальных или сексуальных меньшинств, то тем самым совершит преступление, за которое отвечать придётся его владельцу и/или разработчику.
При этом промышленный робот не обязан предотвратить производственную травму, даже если у него есть такая возможность. Получается какой-то абсурд.
Как объяснить, что писателю прошлого века лучше удалось сформулировать законы робототехники, чем целой комиссии экспертов современности?
Источник: Pravo.gov.ru