Как алгоритм YouTube искажает правдуThe Guardian опубликовал большой материал о рекомендательном алгоритме YouTube, продвигающем конспирологические ролики о «плоской Земле», масонах, рептилоидах и прочий fake news.
«YouTube – самая недооцененная история 2016 года. Его поисковая система и алгоритмы рекомендаций сами являются двигателями дезинформации», - считает техносоциолог Зейнеп Туфекци (Zeynep Tufekci).
В мире насчитывается 1,5 миллиарда пользователей YouTube – больше числа домохозяйств, в которых есть телевизор. То, что они смотрят, в значительной мере формируется рекомендательным алгоритмом YouTube. Алгоритм подбирает их таким образом, чтобы подольше удержать человека у экрана.
Инсайдеры компании рассказали журналистам, что алгоритм – самый важный двигатель роста YouTube. Но что-то пошло наперекосяк с искусственным интеллектом, используемым YouTube.
Как и все крупные технологические компании, YouTube не выставляет на показ алгоритмы, которые так сильно влияют на жизни миллионов людей. Эта секретная формула, проприетарное программное обеспечение, и только избранным инженерам доверяют работу с алгоритмами. Гийом Часлот (Guillaume Chaslot), 36-летний французский программист, имеющий научную степень по изучению искусственного интеллекта, был одним из таких инженеров.
На протяжении трех лет он работал в Google и пришел к выводу, что рекомендательный алгоритм не оптимизирован для показа правдивых и сбалансированных роликов. «Время просмотров было приоритетом, – вспоминает он. – Все остальное считалось отвлекающими факторами». Часлот предлагал изменить принципы работы алгоритма, сделав его более сбалансированным, однако к нему не прислушались.
Уволившись из компании, Часлот создал программу, которая имитирует поведение пользователя, просматривающего YouTube, и фиксирует, какие из видео рекомендуются алгоритмом. На протяжении последних 18 месяцев инженер использовал свое ПО, чтобы изучить искажения, присущие алгоритму YouTube. Ролики касались таких тем, как выборы во Франции, Британии и Германии, глобальное потепление, массовые расстрелы в США. Результаты (и методологию) Часлот опубликовал на сайте
Algotransparency.org. Согласно его выводам, YouTube систематически продвигает сенсационистские и конспирологические ролики, а также видео, разделяющие аудиторию на враждующие лагеря.
Самые интересные примеры были обнаружены его программой во время президентских выборов 2016 года. Как он заметил, рекомендательный алгоритм YouTube не был нейтрален: он продвигал видео, которые, в основном, помогали Трампу и наносили вред Клинтон.
Трамп победил с разницей в 80 тыс. голосов в трех штатах. В США насчитывается 150 млн. пользователей YouTube. Видео, посвященные предвыборной тематике, были просмотрены не менее 3 млрд. раз перед выборами в ноябре 2016.
YouTube в шесть раз чаще рекомендовал видео, полезное для Трампа, чем для его оппонента. По-видимому, YouTube никогда не программировал свой алгоритм, чтобы приносить пользу одному кандидату над другим. Но это именно то, что произошло.
В ответ на письмо из редакции с описанием результатов исследования, в YouTube ответили, что компания не согласна с методологией, данными и, самое главное, сделанными выводами: «Наши поисковые системы и рекомендательные системы отражают то, что ищут люди. Это не предвзятость по отношению к конкретному кандидату – это отражение интересов зрителей».
Социолог Зейнеп Туфекци считает, что рекомендательный алгоритм YouTube, вероятно, рассматривает разжигающие и хейтерские видео как более привлекательные: «Это похоже на кафетерий с автопилотом в школе, усвоившим, что детям нравится сладкая, соленая и жирная еда. Представьте, что он постоянно предлагает детям такую пищу, автоматически загружая следующую тарелку, как только ребенок съест очередной пакет чипсов или конфет».
https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth