С удовольствием и интересом прочитал
статью Андрея Кузнецова
«Туманности нейросетей: ‘черные ящики’ технологий и наглядные уроки непрозрачности алгоритмов» из нового номера «Социологии власти». Из-за близости для меня этой темы очень хочется ее обсуждать, поэтому пост будем (слишком?) академическим.
Во многом статья про возможности STS-подходов для понимания и развития современных дискуссий вокруг алгоритмической прозрачности
как подотчетности (здесь еще очень важна оговорка, что алгоритмическая подотчетность к прозрачности не сводится). Разбирая три подхода к ценностной нейтральности технологий, Кузнецов приходит к выводу, что все они, пускай и по-разному, но упускают саму технологию из виду. Проблемы с технологиями и их ценностным, социально-политическим статусом вообще можно обнаруживать в разных аспектах социотехнических процессов:
– Дизайне (кто, как, зачем и почему проектирует тот или иной технологический артефакт)
– Пользовательских действиях (кто и как им пользуется; афоризм «guns don’t kill people, people do» вот сюда)
– Эффектах технологий на группы, проблемы, общества, контексты, и.т.д.
Но независимо от выбранного аспекта такая критика, пишет Кузнецов, приводит нас к тому, что внимание с самой технологии уводится, и значимыми становятся условия, в которых она используется, производится, оказывает воздействие, и так далее. И для социальных исследований технологии тут есть проблема: сама
материальность, то есть, грубо говоря, сама конкретная устроенность технологии не учитывается – как исследователи мы начинаем смотреть
сквозь них. Для нас при такой перспективе технология становится послушным и предсказуемым проводником человеческих намерений.
Решение Кузнецова здесь состоит в том, чтобы развернуть проблему раскрытия «черного ящика» (здесь – проблема понимания того, что же делает алгоритм) с помощью акторно-сетевой теории Латура. И тогда технологии начинают пониматься не просто как проводники человеческих действий и интенций, а нечто, что своей материальностью способно «дать им отпор». Технологии тогда становятся медиаторами, порождающими новые правила взаимодействий и способными нас удивлять – они становятся событием, которое не может быть редуцировано к тому, что мы привыкли называть «социальным». Больше нельзя сказать, что технология
является расисткой или
воспроизводит расовые различия,
исключительно потому что стоящие за ней проектировщики сами были скрытыми или явными расистами.
И сама по себе такая теоретическая переориентация кажется важной, и я думаю, что, к примеру, художественные работы о
Amazon Echo или о
труде в ИИ во многом похожи на эту задачу картографирования гетерогенных элементов, составляющих алгоритмическую систему как ассамбляж.
Однако то, что мне очень интересно и до конца непонятно, так это возможность критики при такой латуровской позиции. Я бы, возможно, и не вспомнил об этом, но в статье мимолетом также пишется и о социально-политической важности переориентации подходов к «черным ящикам» алгоритмов. При этом я не хочу писать об этом как о какой-то критике статьи, скорее это мои собственные переживания по поводу этой проблемы. Для Латура более привычные критические установки в социальных науках «выдохлись», поэтому надо идти от самих технологий и смотреть, как последние непрерывно становятся временным реляционным достижением взаимодействиях разных гетерогенных элементов. Эта статья Латура есть кстати в
переводе в «Художественном журнале».