Size: a a a

Технологии, медиа и общество

2019 November 14
Технологии, медиа и общество
​​Читаем научные новости правильно
                                                                                       
Большинство опубликованных научных данных не соответствуют действительности, считает исследователь методологии науки Джон Иоаннидис. Лучшие исследователи не всегда получают финансирование, данные нейробиологии ненадежны, а клинические испытания по большей части бесполезны.

Кому верить? Как выжить в хаосе медицинской дезинформации? На основе рекомендаций самого известного. научного «аудитора» мы составили краткий гайд: на что обращать внимание при чтении медицинских новостей.

◇ Мыши или люди?
◇ Кто, где, когда?
◇ Рандомизированное контролируемое или обзорное?
◇ Кто платит?
◇ Соответствует ли громкое название содержанию?

Ответы тут.
источник
2019 November 15
Технологии, медиа и общество
колонка о современных системах слежения с воздуха, в оригинале обычно военных, все как мы любим: постоянное наблюдение в сочетании с machine learning и массовым (читай - вечным) хранением - технология, которая напрямую угрожает гражданским свободам, хотя предполагалось, что она будет служить общему благу

колонка в решающей степени инспирирована книгой Eyes in the Sky, хотя и не является в чистом виде рецензией. в книге, кстати, описывается одна забавная история о создании системы Gorgon Stare (Взгляд Горгоны) - она разошлась всюду именно из этой книги, подтверждения из других источников нет, так что кто знает. суть в том, что создатель Взгляда Горгоны в свое время посмотрел фильм Enemy of the State с Уиллом Смитом, в котором правительственные агенты следили за главным героем с помощью всевидящей небесной системы наблюдения, и подумал - а круто было бы сделать такую систему. и сделал. верить или нет, вопрос, но звучит красиво

так вот теперь подобные системы умеют даже больше, чем в кино: над городами в том же Ираке постоянно висят дроны, которые смотрят вниз через очень мощную оптику. сигнал с камер обрабатывается алгоритмами, которые умеют искать подозрительную активность (в том числе, обнаруживать и отслеживать автомобили, которые совершают внезапный и немотивированный поворот), следить за отдельно взятыми объектами или людьми, интегрировать в систему данные из социальных сетей, перехватов сотовых телефонов, данных, добавляемых вручную наземными службами и так далее. все это в режиме реального времени, в интеграции и постоянном контакте с наземными службами: система следит, анализирует, находит и указывает, на земле хватают, уводят или убивают (хотя системы уже умеют убивать и сами с воздуха)

память теперь очень дешевая, поэтому все видео записываются и хранятся, их можно потом пересматривать и перематывать, подвергать дополнительному анализу, в том числе с помощью машинных алгоритмов. отдельный фокус в том, что исторически нет никаких запретов на то, чтобы смотреть на кого-то с неба. если для установки GPS-трекера на чей-то автомобиль в США требуется получить ордер, то с дрона или дирижабля за этим автомобилем можно следить беспрепятственно и сколько угодно. потому что небо - общее

в какой-то момент создатели систем слежки явно начинают ощущать себя богами, по крайней мере, они дают им имена богов и мифических героев - Персей, убийца Медузы Горгоны (Perseus, Persistent Stare Exploitation and Analysis System), стоглазый великан Аргус  (Argus, Autonomous Real-Time Ground Ubiquitous Surveillance), бог Один (Odin, Observe, Detect, Identify, Neutralize).  

главная этическая проблема ровно та же, что стояла перед создателями атомной бомбы: небольшая группа ученых и инженеров собирается вместе, чтобы создать мощное оружие для военных. при этом, эти новые системы слежки могут быть не менее страшным оружием, которое оно критически смещает весь баланс сил между гражданином и государством, между частным лицом и корпорацией, вплоть до полного исчезновения этого баланса

у обычных людей есть ощущение, что технологии развиваются без их ведома и без возможности как-то повлиять на развитие этих технологий - главные решения об условиях жизни в обществе принимает совсем небольшое и саморегулирующееся "братство элит". многие из них уверены, что работают во благо, но их творения способны разрушить мир #paranoia


https://www.thenewatlantis.com/publications/all-activities-monitored
источник
Технологии, медиа и общество
На Львівщині посадові особи "Укрзалізниці" завдали 1 000 000 гривень збитків відкривши ферму для майнінгу біткоїна на електромережі підприємства
источник
2019 November 18
Технологии, медиа и общество
Медицинские сайты торгуют данными посетителей

Журналисты FT провели расследование (без пейволла) и обнаружили, что из 100 сайтов, посвященных здоровью и медицине, 79% используют куки и 78% передают данные о визитах посетителей в рекламную сеть DoubleClick (принадлежит Google). 48% сайтов работают с кукис Amazon, кроме того в списке — рекламные трекеры от Facebook, Microsoft и adtech-компании AppNexus.

Среди передаваемых данных — названия препаратов, симптомы и диагнозы, о которых посетители читали на сайтах. Причем сайты собирают эту информацию без явного согласия пользователей, что в Великобритании уже является нарушением закона (спасибо GDPR). Ну а затем эти данные используются для показа таргетированной рекламы.

Сложно придумать более чувствительные данные, чем информация о болезнях человека*. Использовать эти данные для таргетирования рекламы — глубоко неэтично. Но очень прибыльно — больной человек будет кликать на баннеры и платить за лекарства в надежде вылечиться.

Эта история очередной раз показывает, насколько цинична современная интернет-индустрия. Если можно заработать на продаже данных о болезнях людей, то почему бы этого не сделать?

* Более чувствительная информация — это, наверное, история посещения порносайтов. Но и здесь мы все как на ладони — 93% порносайтов передают данные о посещениях сторонним компаниям 🤷🏻‍♂️

P.S. Можете сами провести такой эксперимент. Зайдите на любой сайт с медицинскими советами (можно погуглить какую-нибудь болезнь или симптом и перейти из выдачи гугла, но лучше делать это из приватной вкладки), откройте там любую страницу и посмотрите в лог адблокера (я смотрю через uBlock Origin). Сразу увидите, как сайт пытается подгрузить скрипты рекламных трекеров. Ну или можно посмотреть то же самое на порносайте, по настроению.
источник
2019 November 19
Технологии, медиа и общество
источник
Технологии, медиа и общество
Помните регулярные жалобы московских пользователей навигаторов, которые вдруг вместо аэропорта Шереметьево обнаруживают себя в Кремле и наоборот? Ну вот, это хоть объяснимо.

А вот почему в районе порта Шанхая суда, ориентирующиеся по GPS и AIS, регулярно обнаруживают себя и другие суда прыгающими на несколько миль в пространстве, науке так пока и не понятно. На традиционный спуфинг, когда всем пользователям выдаются координаты другой точки, не похоже — каждый пользователь в Шанхае вдруг получает кривые, но уникальные координаты.

Возможно, это упражняется государство, тестируя новое оборудование радиоэлектронной борьбы. Возможно, мы присутствуем при рождении нового электронного пиратства. В общем, еще одной системе не стоит доверять на 100%
https://www.technologyreview.com/s/614689/ghost-ships-crop-circles-and-soft-gold-a-gps-mystery-in-shanghai/
источник
Технологии, медиа и общество
Скоро летающие китайцы в небе над всей страной.

53-летний фермер из Ухани собрал это средство передвижения, потратив около 10.000 юаней.
источник
Технологии, медиа и общество
​​Эпиграфика — научная дисциплина, которая изучает древние надписи на твердых поверхностях. Такие надписи часто повреждены — в них не хватает не только отдельных символов, но и целых слов и фраз. Эпиграфистам приходится не только расшифровывать древние письмена, но и восстанавливать утраченные фрагменты текста, используя для этого свои знания языка и уцелевшие фрагменты надписей. Звучит как хорошая задача для нейросети, верно?

В DeepMind разработали языковую модель PYTHIA для восстановления древних надписей. Для этого глубокую нейронную сеть обучили на самом большом корпусе древнегреческих текстов. Модель восстанавливает неизвестные символы с погрешностью 30%, тогда как профессиональные эпиграфисты — 57%. PYTHIA учитывает контекст и выдаёт более точные результаты, когда ей доступны больше уцелевших символов. Модель предлагает несколько вариантов пропущенного символа и в 73% случаев правильный вариант находится среди её топ-20 предположений.

TLDR: нейросеть научили восстанавливать повреждённые древнегреческие надписи точнее, чем это делают специалисты
источник
2019 November 20
Технологии, медиа и общество
​​И ещё одна новость про ИИ и древние надписи. Японские исследователи обнаружили в пустыне Наска в Перу 143 новых геоглифа. Тут надо сделать небольшое отступление. Геоглифы — знаменитые наскальные изображения в пустыне Наска — делятся на два типа, A и B. Оба типа созданы по одинаковому принципу — древние перуанцы убирали верхний слой темного камня, под которым скрывался светлый пустынный песок. Первые состоят из линий и достигают размеров больше 50 метров. Вторые формируют сплошные поверхности и имеют меньшие размеры. Геоглифы первого типа часто изображают животных. Учёные предполагают, что их рисовали в ритуальных целях — возле них часто находят осколки керамической посуды. Геоглифы второго типа обычно находят возле дорог и на скалах, поэтому рабочая гипотеза такова, что это ориентиры, которые помогали древним перуанцам ориентироваться в пути и на местности.

Так вот, японские исследователи собирали данные о геоглифах, выдвигали гипотезы о том, где можно найти новые, и параллельно использовали для этого трехмерные карты местности и снимки со спутника. Площадь пустыни огромная, разобрать там что-то среди еле заметных линий на спутниковых фото очень сложно. И это оказалось посильной задачей для ИИ: с помощью технологий IBM японцам удалось найти один ранее не замеченный геоглиф. Он похож на человека с палкой в руках, размерами приблизительно 5 на 2 метра. Присмотритесь к оригинальному изображению поверхности слева — заметить это среди огромного количества аэроснимков было бы нереально, если бы не помощь машинного зрения.
источник
Технологии, медиа и общество
Профессор Арвинд Нараянан о змеином масле в сфере ИИ

("Змеиным маслом" раньше торговали аптекари-мошенники, теперь этот эвфемизм означает распиаренную и неэффективную пустышку)

ИИ — зонтичный термин для целого семейства технологий. Некоторые из них действительно показывают впечатляющие результаты, чем добавляют хайпа в общественную дискуссию. Опрос общественного мнения показывает, что американцы ожидают автоматизации всех профессий уже через 10 лет.

Компании используют этот хайп и добавляют название "ИИ" в свои продукты, даже если там на самом деле нет ИИ или его эффективность низка.

Нараянан грубо делит применения ИИ на три группы:

— связанные с восприятием (распознавание треков, лиц, речи) — здесь эффективность ИИ уже довольно высока;

— автоматизированное оценивание (детекция спама, хейтспича, рекомендации контента) — в этих задачах ИИ никогда не будет на 100% точен, это надо принять;

— попытка предсказать социальные процессы исходя из исторических данных (прогнозирование преступлений, рецидивов, эффективности сотрудников) — а вот это, по мнению Арвинда, и есть то самое "змеиное масло"; это тот тип задач для ИИ, которые он не сможет решить, сколько бы данных в него не загружали.

Во многих случаях такие задачи проще и эффективнее решаются простыми линейными формулами. Яркий пример: американское исследование 4200 семей. Учёные собрали 13 тысяч параметров, наблюдая за тысячами семей. И затем попробовали найти формулу, которая могла бы предсказать успешность ребенка, исходя из информации о семье, в которой он рос. В итоге самые точные математические модели, учитывающие 13 тысяч параметров, оказались настолько же точными в прогнозах, как и линейная регрессия, учитывающая всего 4 параметра. Похожая картина получается и с прогнозированием других социальных явлений, таких как вероятность рецидивов или лишения прав.

Вывод — ИИ мощный инструмент, но он не подходит для прогнозирования социальных явлений. В большинстве случаев "ручное" оценивание настолько же точно, но при этом более прозрачно.

Понятная презентация на 20 слайдов
источник
2019 November 21
Технологии, медиа и общество
Отличный материал для журналистов, блогеров, исследователей и всех, кто читает и пишет материалы про ИИ: AI Coverage Best Practices, According to AI Researchers.

Прочитайте сами и передайте своим друзьям и коллегам. И не читайте плохо написанные тексты про ИИ.

Что ёще почитать по теме:
Как распознать мошенничество в сфере ИИ
7 ошибок, которые допускают все, кто пытаются предсказать будущее ИИ
Несколько советов для журналистов, пишущих об ИИ
Bullshit news в технологической журналистике (и ещё)
источник
Технологии, медиа и общество
Amnesty International опубликовала 60-страничный отчет о Google и Facebook с красноречивым названием "Гиганты слежки".

Для миллиардов людей по всему миру именно сервисы Google и Facebook являются проводниками в Интернет. И хотя эти сервисы в основном бесплатны, пользователи платят за них свою цену, предоставляя компаниям свои персональные данные.

Правозащитники утверждают, что обе компании угрожают правам человека, в том числе свободе выражения мнения и свободе мысли. Виной тому — бизнес-модель, основанная на массированном сборе данных о поведении пользователей, которые затем обрабатываются с помощью сложных алгоритмов и используются, в первую очередь, для получения дохода от рекламы.

Такая бизнес-модель позволила двум гигантам сконцентрировать огромную власть, включая финансовую мощь, политическое влияние и способность формировать цифровой опыт миллиардов людей. Это привело к беспрецедентной асимметрии знаний между компаниями и пользователями Интернета - как утверждает исследовательница Шошана Зубофф (Shoshana Zuboff): «Они знают о нас всё; мы не знаем о них почти ничего».
источник
Технологии, медиа и общество
сотрудники ГК "Нейроботикс" и МФТИ обучают нейросеть воссоздавать изображения по электрической активности мозга в режиме реального времени, снимая сигналы непосредственно с нейронов с помощью электроэнцефалографии (ЭЭГ)
https://youtu.be/nf-P3b2AnZw

теоретически, я думаю, можно будет таким же образом вынимать из мозга воспоминания (наверное). первое, что приходит на ум в прикладном смысле - воссоздание облика разных людей, к примеру, преступников, без посредников в виде художников или составителей фотороботов. человек просто думает, нейросеть рисует

пока выглядит не очень, но вообще это экспериментальные пробы, так что впечатляет
https://i.redd.it/hztbaqe7dxz31.png

минорити репорт все ближе
https://techxplore.com/news/2019-10-neural-network-reconstructs-human-thoughts.html
источник
2019 November 22
Технологии, медиа и общество
All Hail The Algorithm

Al Jazeera сделали документальный проект о алгоритмах в нашей жизни: «Пятисерийная документалка, исследующая воздействие алгоритмов на нашу жизнь»
– Первая серия про то, можем ли мы доверять алгоритмам
– Вторая про «империи данных»: колонизацию большими технологическими компаниями других стран. Там в качестве спикера есть Улисес Мехиас, интервью с которым я делал некоторое время назад.
– Третья про роль алгоритмов в политической манипуляции и фейк ньюс
– Четвертая про опасности биометрических технологий (немного о технологиях распознавания лиц я писал тут)
– Пятая про уловки дизайна
источник
Технологии, медиа и общество
Google всегда уверял, что не вмешивается работу своего поискового алгоритма. Оказалось, что это не так

Каждую минуту пользователи вводят около 3,8 млн. запросов в поисковую строку Google. Полагаясь на его алгоритмы, они надеются получить релевантные результаты о ценах на отели или лечении от рака, или о последних новостях политики.

Влияние этих строк кода на глобальную экономику поистине огромно: миллионы людей обращаются к информации, найденной в Интернете, и именно она является отправной точкой для денежных потоков в миллиарды долларов.

Руководители Google неоднократно заявляли, – в том числе в свидетельских показаниях в Конгрессе - что алгоритмы являются объективными и, по сути, автономными, не подверженными человеческим предрассудкам или коммерческим соображениям.

Компания заявляет, что люди не влияют на поисковую выдачу и ранжирование результатов. Журналисты WSJ выяснили, что в последнее время Google все больше вмешивается в результаты поиска — и в гораздо большей степени, чем компания признает публично.

Часто это происходит под давлением со стороны крупного бизнеса и правительств различных стран. Google стал чаще прибегать к подобным действиям после выборов 2016 года в США и скандалов о дезинформации в Интернете.  

По словам одного из руководителей Google, который занимается поиском, внутреннее расследование 2016 года в Google показало, что до четверти поисковых запросов возвращают какую-то дезинформацию. В процентном отношении это не так уж и много, но, учитывая огромный объем поисковых запросов в Google, это составило бы почти два миллиарда поисковых запросов в год. Для сравнения: роль Facebook оказалась предметом слушаний Конгресса после скандала с российской дезинформацией, которую просмотрели 126 миллионов пользователей.

Кратко о том, что выяснили журналисты издания:

•  Алгоритмы поиска отдают предпочтение крупным компаниям по сравнению с более мелкими, поддерживая некоторые крупные  веб-сайты, такие как Amazon.com Inc. и Facebook Inc

• Инженеры Google регулярно вносят скрытые коррективы в информацию, которую компания все чаще размещает параллельно основным результатам поиска: в предложения по автозаполнению, в так называемые «панели знаний» и «избранные фрагменты», в результаты  новостей.

• Существуют чёрные списки для удаления из результатов поиска некоторых сайтов. И это не касается случаев, когда сайты блокируются из-за нарушения законодательства США или других стран.

• В режиме автозаполнения - функции, которая предсказывает слова по мере того, как пользователь вводит запрос, – инженеры Google создали алгоритмы и чёрные списки, чтобы отсеять сомнительные с точки зрения компании предложения по спорным вопросам.

• Сотрудники и руководители Google, включая соучредителей Ларри Пейджа и Сергея Брина, не пришли к единому мнению о том, в какой степени стоит вмешиваться в результаты поиска.

• Для оценки результатов поиска в Google работают тысячи низкооплачиваемых подрядчиков, цель которых, по словам компании, заключается в оценке качества алгоритмов ранжирования. Подрядчики утверждаю: компания даёт им понять, что именно она считает правильным ранжированием результатов.
источник
2019 November 23
Технологии, медиа и общество
https://vc.ru/transport/94045-issledovateli-v-ssha-svyazali-poyavlenie-uber-v-gorode-s-rostom-potrebleniya-alkogolya-mestnymi-zhitelyami

«Экономисты Джейкоб Бургдорф и Конор Леннон из Луисвиллского университета и Кит Тельцер из Университета штата Джорджия решили выяснить, есть ли связь между появлением в городе такси-сервиса Uber с увеличением потребления алкоголя местными жителями.

Чрезмерное употребление алкоголя (когда человек выпивает четыре-пять напитков за два часа) увеличилось на 8%, а случаи пьянства (три и более случаев алкогольного опьянения в месяц) — на 9%. В городах, где нет общественного транспорта, появление Uber привело к росту потребления алкоголя в среднем на 5%»
источник
2019 November 25
Технологии, медиа и общество
If Facebook were around in the 1930s, it would have allowed Hitler to post 30-second ads on his “solution” to the “Jewish problem.”

Все мы знаем Сашу Барона Коэна как талантливого актёра и сатирика. На днях он раскрылся в новом амплуа: выступил на международном правозащитном саммите с критикой интернет-компаний, которые зарабатывают на хейтспиче и фейковых новостях вместо того, чтобы бороться с ними. Я прочитал его речь (так быстрее, но можно и посмотреть), и должен сказать, что это действительно хороший текст. Не то чтобы он сказал что-то радикально новое — все критики интернет-гигантов повторяют более-менее те же тезисы. Но мнение Коэна интересно именно как мнение сатирика, провокатора, который сам регулярно ходит по краю и обижает многих своими некорректными шутками. Вспомните, сколько скандалов он спровоцировал в одном только образе Бората. И в то же время, сколько нездоровых стереотипов и предубеждений показал в своих фильмах — именно благодаря своим провокациям.

Коэн называет Facebook самой масштабной машиной пропаганды в истории, критикует оправдания Цукерберга ("Он говорит, что не знает, где провести черту между приемлемым и неприемлемым контентом? Да он просто имеет в виду, что это слишком дорого обходится его компании") и призывает регулировать интернет-компании так же, как и других вещателей. Власть миллиардеров из Долины, усиление голоса нездоровых идеологий, распространение теорий заговора — Коэн воспроизводит необходимый минимум из современной анти-"big tech" повестки, но также рассказывает и о собственных встречах с носителями опасных взглядов. Однажды он, представившись экспертом по борьбе с терроризмом из Израиля, нашёл американца, который поддерживал в соцсетях разные теории заговора. Это был обычный парень — образованный, с хорошей работой. И Коэн убедил его подложить взрывчатку на Марш женщин в Сан-Франциско — чтобы сорвать план антифа-террористов по обработке подгузников женскими гормонами, которые должны были превратить младенцев в трансгендеров. Парень был готов совершить массовое убийство, поверив в совершенно бредовый заговор.

После этого по-другому стал воспринимать провокации Коэна. Они действительно могут кого-то обидеть, но важнее — проблемы, которые при этом вскрываются. А ещё Коэн закончил Кэмбридж и писал диплом про американские правозащитные движения. Интересный парень, в общем.
источник
Технологии, медиа и общество
Кстати, о языках: в твиттере пишут, что Google Translate тестирует новый язык — инвесторский, вот пример перевода
источник
2019 November 26
Технологии, медиа и общество
Интересная идея — очки дополненной реальности для плавания, которые одновременно являются трекером. Прямо во время плавания вы видите свою скорость, время и дистанцию — эта информация выводится на небольшой OLED-экран на очках. Количество гребков, развороты и другие движения очки анализируют с помощью встроенного акселерометра и гироскопа. У вас может возникнуть вопрос — как очки могут трекать движения? Ответ прост — пловцов в очках снимали на видео, затем точные метрики взяли за основу для обучения и таким образом настроили сенсоры очков достаточно точно распознавать движения пловцов. Выглядит гаджет стильно и, если верить обзорам, действительно помогает пловцу рассчитать скорость на отдельных отрезках дистанции. Стоит недёшево — $200, эта игрушка явно не для любителей, но разработка интересная. Как и другие узкопрофильные применения AR — ведь универсальные AR-очки за такую цену пока, кажется, не нужны рынку.
источник
Технологии, медиа и общество
​​Машинное обучение и Шекспировский вопрос

Есть много теорий насчёт авторства произведений Шекспира — вплоть до того, что на самом деле и не было вовсе никакого Шекспира. Менее радикальные гипотезы ставят под сомнение авторство отдельных пьес: к примеру, литературные критики ещё в 1850 году выдвинули теорию, что пьесу "Генрих VIII" Шекспир написал в соавторстве с Джоном Флетчером.

Чешский исследователь решил проверить эту теорию с помощью вычислений: он прогнал текст пьесы через нейросеть, обученную на текстах Шекспира и Флетчера (и ещё одного драматурга тех времён, для чистоты эксперимента). Программа сравнивала фрагменты текста по ритмике (последовательность ударных и безударных слогов) а также по часто употребляемым словам, и таким образом находила фрагменты, написанные в стиле Шекспира и, соответственно, Флетчера.

Результат — на графике. Несколько действий пьесы действительно написаны в характерном для Флетчера стиле — он часто писал ye вместо you, ’em вместо them, и добавлял в конце строки sir, still или next, выходя за рамки стандартного пятистопного ямба, которым часто писал Шекспир. Это исследование не отвечает однозначно на вопрос об авторстве пьесы. Но тепер у сторонников теории Флетчера есть аргументы, и даже указания на точные фрагменты текста, которые тот, возможно, написал.

https://arxiv.org/pdf/1911.05652.pdf
источник