AI / ИИЕвросоюз опубликовал свод этических правил, которые должны будут соблюдаться компаниями и правительствами при разработке и использовании искусственного интеллекта, сообщает популярный веб-сайт по IT технологиям The Verge. Эти правила не похожи на «Три закона робототехники» Айзека Азимова, они не предлагают моральные ограничения, которые помогут нам контролировать смертоносных роботов, а вместо этого затрагивают не очень внятные и понятные проблемы, которые могут возникнуть в обществе, поскольку ИИ управляет городской инфраструктурой и скоро возьмёт на себя управление всем городским беспилотным транспортом, что несёт вполне определённые риски для населения. Кроме того, ИИ уже интегрирован в такие сферы, как здравоохранение, образование и потребительские технологии.
Так что да, эти правила касаются того, чтобы ИИ невзначай не взбесился, но на уровне администрирования и бюрократизации, а не в азимовском детективном стиле.
Для этих целей в 2018 году была сформирована группа из 52 независимых экспертов, определивших семь ключевых требований, которым должны соответствовать будущие системы искусственного интеллекта.
Человеческое соучастие и надзор – ИИ не должен покушаться на автономию человечества, манипулировать людьми или принуждать их к чему-либо, а люди, в свою очередь, должны иметь возможность вмешиваться и контролировать каждое решение, принимаемое программным обеспечением.
Техническая надёжность и безопасность – должна быть обеспечена устойчивость ИИ к внешним атакам.
Конфиденциальность и управление данными – персональные данные, используемые ИИ-системами, должны оставаться конфиденциальными. Их должно будет непросто украсть.
Транспарентность: решения, принимаемые программным обеспечением, должны пониматься и отслеживаться людьми.
Разнообразие, отсутствие дискриминации и справедливость – предоставляемые ИИ-системами услуги, должны быть доступны всем, независимо от возраста, пола, расы или других факторов.
Экологическое и социальное благополучие – системы искусственного интеллекта должны быть экологически ответственными и способствовать позитивным социальным изменениям.
Подотчётность – ИИ-системы должны быть защищены существующими средствами защиты корпоративной информации. О негативных воздействиях систем необходимо сообщать заранее.
Видно, что некоторые из этих требований весьма расплывчаты, но другие достаточно однозначны. Распространение данных, используемых для обкатки управляющих систем ИИ, например, могут стать хорошим способом борьбы с «предвзятыми алгоритмами».
Эти принципы не имеют юридической силы, но они могут сформировать некую будущую законодательную базу, созданную Евросоюзом. В рамках данного проекта был также подготовлен список вопросов для «достоверной оценки искусственного интеллекта», которые могут помочь экспертам выяснить любые потенциальные слабые места или опасности в программном обеспечении, использующем алгоритмы ИИ. Подробный отчёт по проблемам искусственного интеллекта сегодня будет представлен на конференции в Брюсселе.
@