NK
В частности в докладе предлагается применять разное регулирование в зависимости от нахождения системы на следующей 5 балльной шкале:
1. Системы с низким потенциалом вреда, например, устройства раздачи напитков не должны регулироваться.
2. Системы с некоторым потенциальным вредом такие как динамические цены в e-commperce должны регулироваться облегченно и контроль должен применяться пост-фактум.
3. Системы с регулярным или очевидным потенциалом вреда такие как персонализированные цены должны проходить обязательную процедуру одобрения регулятором до применения и подвергаться регулярному контролю.
4. Системы со значительным потенциальным вредом, таким как компании которые имеют квази-монополии в кредитном скоринге, должны публиковать детали алгоритмов, включая факторы влияющие на расчёт алгоритма и вес факторов, сведения об обработке данные и объяснение внутренней логики. Контроль за алгоритмами должен осуществляться в реальном времени.
5. Системы неоправданного потенциального вреда такие как автономное вооружение должны быть "полностью или частично" запрещены.
Среди пунктов с рекомендациями могу отметить:
- поощрение бизнеса к публикации открытых данных не только, в том числе через механизм государственных тендеров и налогообложения;
- регулирование и ограничения, при необходимости, на B2B торговлю данными.
- создание стандартов аудита и тестирования алгоритмических систем;
И многое другое. Например, авторы доклада предлагают следующей комиссии создать "Кодекс алгоритмической подотчётности" и поощерять саморегулирование.
С довольно позитивной повесткой доклада несогласны в AlgorithmWatch [2], германской НКО по защите прав граждан в отношении алгоритмических систем, указывая что многие из них оказываются между указанными выше категориями систем.
Учитывая что новый президент Еврокомиссии - Урсула вон дер Лэйен уже анонсировала новое регулирование ИИ в Евросоюзе к марту и её предыдущий пост в правительстве Германии, стоит ожидать что рекомендации из этого доклада скоро появятся в законодательстве Евросоюза.
В более сжатом виде, но на английском языке, можно прочитать доклад по ссылке [3].
P.S. Не могу не отметить разницу в организации комиссий в Германии и в России. Например, эта комиссия была создана в сентябре 2018 года, с конкретно сформулированным госзаданием (ключевыми вопросами) к комиссии от федерального правительтства [4] и с задачей найти ответы в течение 1 года - это период работы комиссии. А этот доклад - это итог работы комиссии одновременно с завершением её работы. В России, мало того что комиссии существуют на много лет (десятилетий) так ещё и превращаются в форму/продолжение исполнительной власти [5].
Ссылки:
[1] https://datenethikkommission.de/wp-content/uploads/191015_DEK_Gutachten_screen.pdf
[2] https://algorithmwatch.org/en/germanys-data-ethics-commission-releases-75-recommendations-with-eu-wide-application-in-mind/
[3] https://datenethikkommission.de/wp-content/uploads/191023_DEK_Kurzfassung_en_bf.pdf
[4] http://s801237046.online.de/datenethikkommission/wp-content/uploads/DEK_Leitfragen_eng.pdf
[5] http://government.ru/orders/selection/405/33944/
#privacy #ai #regulation