На днях корпорация Google в очередной раз
стала героем драмы. Второго декабря ведущий специалист компании по вопросам этики в контексте искусственного интеллекта Тимнит Гебру заявила о своём увольнении. Её уход стал кульминацией конфликта с начальством, суть которого кроется в идеологических расхождениях по вопросам
социальной справедливости; последней каплей стало нежелание менеджмента дать ход публикации очередной статьи Тимнит.
Публикации Тимнит Гебру в основном критиковали современные ИИ-технологии с этической точки зрения: самым известным её исследованием считается оценка точности систем распознавания лиц в зависимости от цвета кожи и прочих расовых черт: оказалось, современные классификаторы гораздо лучше справляются со светлокожими. В статье, послужившей поводом для конфликта, Тимнит и соавторы хотели рассказать, что тренировать большие нейросети для генеративных моделей текста долго, дорого и (о ужас!) вредно для окружающей среды, а результаты процесса пойдут на пользу большим компаниям, этот процесс контролирующим. Кроме того, масштабы тренировочных данных таковы, что, во-первых, в выборку попадает политически
разное, и, во-вторых, не попадает политически
правильное, в особенности, если политически
правильное придумали в комитете по этике полгода назад. Кроме того, в статье приводится уже набивший оскомину аргумент «но этот алгоритм не
понимает речь, это всего лишь машина» в поддержку тезиса о неверно избранном пути исследований.
Так как сама статья не опубликована, аргументы приходится воспринимать в перепевке MIT Technology Review. Но она, как сказано выше, была лишь поводом. Причиной конфликта с начальством была в первую очередь активная позиция самой Тимнит Гебру по вопросам социальной справедливости: по её мнению, начальство недостаточно ревностно преследовало цели «39% новых сотрудников — женщины» и в целом дискриминировало представителей меньшинств на рабочем месте, в частности, излишне критичным отношением к результатам их работы. Отказ в публикации статьи, по её мнению, так же стал результатом предвзятого отношения, так как ни о какой другой мотивации речи не может быть. В публичном ответе на её претензии со стороны одного из обвиняемых управленцев Гугла, конечно же, приводятся другие факты в другой очерёдности, что делает выяснение, кто же прав, для наблюдателя со стороны практически невозможным.
У Ватфора при ознакомлении с этой историей возникли смешанные чувства. Аргументативно работу Гебру и соавторов скорее можно отнести к технофилософии, чем к «жёсткой» математике и вычислительной технике, и аргументировать технически, не скатываясь в политику, практически невозможно. Политически же хочется сказать следующее. Большая часть из аргументов госпожи Гебру в той или иной мере известны, искажения в выборках данных, прямо следующие из проблем социальных, известны не год и не два (автор этих строк ещё четыре года назад писал статью, предлагавшую методику расчёта «беспристрастности» статистических моделей), а результаты приложения ресурсов в промышленных масштабах как правило пожинает прилагающая их организация, и было бы странно ожидать чего-то иного. Заявления, что большие нейросети — неверный путь развития, кажутся тоже мотивированными политически, потому что на данный момент эти штуки
в целом работают, в отличие от гипотетически более маленьких и более социально-справедливых моделей, которые ещё предстоит довести до промышленного применения, да и ценность
политически правильных языковых моделей, мягко говоря, политически неочевидна.
Также хочется заметить, что мы становимся свидетелями аппаратного конфликта внутри крупной организации в битве за политические ресурсы. Это всегда познавательно и интересно, в особенности когда происходит у кого-то другого. Кроме того, это означает, что Гугл окончательно дорос до аппаратно-бюрократической возни с применением политических аргументов; пожалуй, на этом можно окончательно распрощаться с представлением о Гугле как о компании, живущей молодостью и аджайлом головного мозга, и вспомнить Дилберта. К прочим техногигантам это тоже относится.