Инфокалипсис ближе, чем вы думаете. И платформы, такие как Facebook, помогут ему произойтиАвив Овадья из Центра ответственности социальных медиа Университета Мичигана раньше других понял, что интернет-платформы и общество, зависящее от компьютерных алгоритмов, крайне уязвимы к пропаганде, дезинформации и недобросовестной таргетированной рекламе, пишет Buzzfeed.
Овадья предвидит пугающее будущее: ставки высоки, а возможные последствия могут быть более катастрофичными, чем иностранное вмешательство во время выборов, — подрыв основных цивилизационных институтов, «инфокалипсис».
С ростом вычислительных мощностей, развитием искусственного интеллекта и машинного обучения все легче становится размыть грань между фактом и вымыслом. Вскоре любой сможет заставить нечто выглядеть как произошедшее в реальности, независимо от того, действительно ли это произошло.
Уже имеются инструменты для обработки аудио и видео, позволяющие создавать порно-ролики с лицами известных актеров или кого-угодно. В таких учреждениях как Стэнфорд и Университет Вашингтона инженеры создали программы, манипулирующие аудиозаписями и видео таким образом, чтобы создавать реалистичные изображения людей, произносящих слова, которые они никогда не говорили.
Представьте, что алгоритм машинного обучения, которому скормили сотни часов выступлений Дональда Трампа или Ким Чен Ына, сгенерирует почти идеальный – и практически неотличимый от реального – видеоролик с лидером, объявляющим ядерную или биологическую войну. Это видео не должно быть идеальным, но достаточно хорошим, чтобы противник решил, что произошло нечто, требующее возмездия.
Другой сценарий предполагает комбинацию политических ботнетов и астротурфинга, когда политические движения подвергаются манипуляциями со стороны фальшивых низовых кампаний. Все более правдоподобные боты, управляемые искусственным интеллектом, будут способны эффективно конкурировать с реальными людьми за внимание законодателей и регуляторов – и различить их будет крайне сложно. Почтовые ящики парламентариев будут забиты сообщениями от несуществующих респондентов, сшитых машинным интеллектом из контента социальных сетей, текста и аудио.
Еще одна угроза исходит от алгоритмического фокусированного фишинга (automated laser phishing). Используя машинный интеллект для сканирования социальных сетей, можно создать фальшивые, но правдоподобные сообщения от людей, которых мы знаем. С помощью этой техники злоумышленники смогут убедительно имитировать любого человека, воспользовавшись общедоступными данными.
Раньше нужно было подражать голосу человека или придумывать поддельный разговор. Вскоре достаточно будет нажать клавишу, и программа сделает все за вас. Такие технологии станут доступны и будут просты в использовании. И это абсолютно изменит правила игры.
Представьте фишинговое сообщение, которые не просто содержит сомнительную ссылку, по которой нужно кликнуть, а персонализированное письмо, учитывающее реальный контекст. Не просто письмо от друга, а письмо от человека, чье сообщение вы ждали с нетерпением. И поскольку будет очень легко создавать фейковые сообщения, вы будете ими перегружены. Если бы весь спам, который вы получаете, выглядел как письма от реальных знакомых, каждый из которых пытается вас в чем-то убедить, в конце концов вы просто скажете: «Ладно, лучше просто игнорировать свой почтовый ящик».
Это может привести к апатии, усталости от реальности, когда люди начнут сдаваться перед потоком дезинформации. Для развитого общества это смерти подобно: люди перестанут обращать внимание на новости, тогда как функционирующая демократия требует от граждан определенного уровня информированности. Такое общество станет нестабильным.
https://www.buzzfeed.com/charliewarzel/the-terrifying-future-of-fake-news