
Бывшая сотрудница отдела этики FB Фрэнсис Хоген:
Одним из последствий того, как Facebook отбирает этот контент сегодня, является то, что он оптимизируется для контента, который вызывает вовлечение или реакцию. Но собственные исследования Facebook показывают, что контент, вызывающий ненависть, раскол, поляризацию, легче побуждает людей к гневу, чем к другим эмоциям.
<...> В Facebook поняли, что, если они изменят алгоритм на более безопасный, люди будут проводить меньше времени на сайте, они будут меньше кликать на рекламу, и компания будет меньше зарабатывать.
https://telegra.ph/Intervyu-Frehnsis-Hogen-o-razzhiganii-nenavisti-v-mire-Fejsbukom-dlya-maksimizacii-pribyli-10-05
Как будто это не было очевидно... Хорошо, если теперь злое намерение будет доказано. Впрочем: und so? Все эти свидетели и сбои — лишь разборки барина с зажиточными крестьянами: кто кому что должен.
Другое дело, что, быть может, кто-то, прочитав, задумается о том, не стоит ли всё-таки вернуться к умению «внимательно, напряженно и вдумчиво читать длинные тексты. Постигать глубокие смыслы. Максимально дистанцироваться от бессмысленной (не путать с целенаправленной) эмоциональности. Во всех своих делах и теоретических построениях ориентироваться исключительно на практический результат. Делать все всерьез и надолго. Вернуть первичный вес слова как структурной единицы обмена информацией, по крайней мере внутри "своего" социума». https://t.me/mig41/10606