#советнедели
Про "don't be evil". По американским околотехнологическим сайтам прошла волна кидания камней в Google за ситуацию с увольнением Timnit Gerbu (
https://www.theverge.com/2020/12/5/22155985/paper-timnit-gebru-fired-google-large-language-models-search-ai).
Краткий пересказ драмы, — причем в основном с одной стороны, так как журналистам не получилось получить внятную позицию самой компании, — выглядит так:
— На волне прошлых критик в адрес компании за предвзятые и дискриминирующие алгоритмы машинного обучения Google наняла Timnit Gerbu стать со-руководителем группы по "Этичному ИИ". Благое дело: поставить руководить проблемной зоной ту, кто в этом понимает и правда хочет исправить. Здесь надо отметить, что Gerbu — известная в индустрии ученая в области анализа предвзятостей в алгоритмах (algorithmic bias) и активная участница и местами лидер множества сообществ, в частности "Black in AI".
— Gerbu вместе с коллегами и внешними исследователи готовили к публикации исследование о том, насколько большими могут и должны быть лингвистические модели и какими могли бы быть стратегии по снижению сопутствующих рисков. Команда исследователей обращает внимание на несколько факторов: 1) для вычислений необходимы огромные вычислительные мощности, оставляющие соответствующий экологический след; 2) такие модели опираются на огромные базы текстов, которые, очевидно, берутся из интернета и существующих источников, и, тоже очевидно, наследуют с ними расизм, сексизм и прочие нехорошие вещи, не отображают изменения в обществе и вообще трудно верифицируемы экспертно; 3) неправильный приоритет для исследований — вместо понимания текстов, исследователи создают решения "манипулирующие" текстами, но этого достаточно для больших компаний для монетизации; 4) так как такие модели достаточно хороши, чтобы мимикрировать под речь настоящих людей, их легко использовать для обмана. (Подробнее в MIT TR:
https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/)
— Черновик какое-то время лежал в жерновах гугловских процедур, но параллельно подавался на публикацию. В самый последний момент у руководителей Google что-то защемило и они решили, что такое академическое исследование может нанести сильный ущерб компании, но так как официально это признать никто не может, Gerbu заставляют отозвать публикацию, ссылаясь на несоответствие исследования внутренним стандартам. И вообще, оно мол не отображает последние наработки гугла и фу так делать.
— Дальше последовало некоторое количество обменов взаимными требованиями и коммуникаций через линии менеджмента, не все из которых выдерживают требования этичности и прозрачности, но самое главное — они, конечно же, в таком деле вылезли наружу в публичное пространство.
— В итоге Timnit Gerbu от греха подальше "ушли" из компании, но буча развернулась и вопросов в итоге больше к Google, чем к ученой. А самое главное, такие моменты ставят ИТ-компании в один ряд с табачными и фармацевтическими, которые в свое время также активно манипулировали исследованиями и публикациями для своей коммерческой выгоды.
===
А совет такой: занявшись публично этикой, ведите себя вдвойне этично и прозрачно, особенно с теми, кто у вас этикой рулит, особенно с людьми с внутренними принципами и публичным признанием.