Size: a a a

2019 February 06
Quantum Quintum
MIT Technology Review рассказывает, как так получается, что нейронные сеточки пестрят предвзятостью, и почему это сложно исправить.

Как так получается:
1. Обычно, говоря о предвзятости, ссылаются на проблемы с данными. В реальности все несколько сложнее: некорректности могут возникнуть еще до сбора данных, а также на многих других стадиях процесса обучения. Но для упрощения, все рассмотрим три ключевых стадии.

2. Постановка задачи. Один из самых первых шагов -- это понять, чего нужно достичь с помощью алгоритма. Например, кредитная организация может хотеть предсказывать благонадежность клиентов, но это очень условный параметр. Чтобы перевести его в алгоритм, компании нужно определиться с критериями и целевыми показателями (к примеру, увеличивать прибыль или число выданных кредитов). Эти решения принимаются по множеству бизнес-причин, не связанных напрямую с "честностью" или "дискриминантностью" решения. Если алгоритм решит, что выдача субстандартных кредитов максимизирует прибыль, он будет "потворствовать" "хищническому" поведению, даже если это не было изначальной целью компании.

3. Сбор данных. Здесь два основных момента: собираемые данные нерепрезентативны или отражают существующие перекосы. Классика: алгоритмы компьютерного зрения лучше распознают светлокожие лица, потому что в тренировочной базе их больше; а HR-системы, обученные на исторических данных часто дискриминируют женщин.

4. Подготовка данных. Для обучения модели, вы выбираете атрибуты, которые алгоритм должен принять во внимание. Это часто включает проекцию стереотипов: например, для случая с кредитами, инженер выбирает в качестве параметров возраст, доход и количество выплаченных кредитов. Обычно это называют "искусством" машинного обучения: подобрать "фичи", которые нужно учитывать или игнорировать, чтобы повысить точность модели.
Подготовка данных. Для обучения модели, вы выбираете атрибуты, которые алгоритм должен принять во внимание. Это часто включает проекцию стереотипов: например, для случая с кредитами, инженер выбирает в качестве параметров возраст, доход и количество выплаченных кредитов. Обычно это называют "искусством" машинного обучения: подобрать "фичи", которые нужно учитывать или игнорировать, чтобы повысить точность модели.

Почему предвзятость трудно исправить?
1. Неизвестные неизвестные. Внесение предвзятости в алгоритм часто совсем не очевидно во время создания модели. Пока у вас нет обученной модели, вы можете не понимать последствий принимаемых решений. А когда модель построена, трудно ретроспективно понять, что именно внесло искажение. Например, в HR-случае, изъятие из учебной базы явных отсылок на гендер, не сильно помогло, потому что алгоритм мог определять пол по косвенным признакам вроде частоты используемых слов.

2. Несовершенство процесса. Большинство стандартных практик в машинном обучении вообще не учитывают возможность предвзятости. По идее, модели тестируются перед разворачиванием, и это должно быть идеальной точной для проверки предвзятости. Но вспомните классическую рекомендацию по тестированию: разделите случайно исходные данные на учебные и тестовые. В результате тестовые данные содержат те же искажения, что и учебные.

3. Нехватка социального контекста. То, как инженеры формулируют алгоритмические задачи, часто не совместимо с социальными проблемами. Это так называемая "ловушка переноса". В ИТ мы часто считаем хорошей практикой проектировать системы, которые можно использовать для других задач в других контекстах. Но этот подход игнорирует различие социальных контекстов. "Вы не можете спроектировать систему в Юте и применять ее в Кентукки, потому что у разных сообществ разные версии справедливости. Вы также не можете сделать систему для оценки криминальности поступков и применять ее для оценки сотрудников."
источник
Quantum Quintum
4. Неопределенность справедливости. Но при всем этом никто не может однозначно сказать, как выглядит отсутствие предвзятости. Это не только про машинное обучение, это большая долгая дискуссия в философии, социальных науках и законотворчестве. Отличие компьютерных наук только в том, что мы ожидаем математических формулировок вроде баланса ложно-позитивных и ложно-негативных срабатываний. Но ученые знают, что есть множество взаимоисключающих математических определений справедливости.

Хорошая новость: исследователи активно работают над различными подходами, адресующими разные аспекты появления предвзятости в моделях. В конце статьи по ссылке ниже есть ссылки на работы.

https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/
источник
2019 February 11
Quantum Quintum
Гонка вокруг ИИ набирает обороты: Трамп запускает американскую ИИ-инициативу (American AI Initiative). Пока объявлены только основные направления:

Исследования и разработка. Администрация направит в федеральные агентства запрос на приоритезацию инвестиций в ИИ. Хотя конкретные суммы пока не названы (и они определяются скорее Конгрессом), важно отметить, что речь скорее идет о перераспределении расходов, чем выделении новых средств. Также должна улучшиться прозрачность расходов между агентствами, чтобы лучше понимать, сколько именно на эту инициативу тратит правительство.

Инфраструктура. Федеральные агентства должны обеспечить исследователям доступ к федеральным данным, алгоритмам и вычислительным мощностям. Сюда же относится разработка новых стандартов.

Управление. Офис научно-технической политики Белого Дома и другие группы разработают общие рекомендации по управлению ИИ, чтобы обеспечить его безопасность и этичность. Среди ключевых тематик: приватность, оборона, производство продуктов питания и лекарств.

Рабочая сила. Совещательный комитет по ИИ и федеральные агентства должны улучшить программу подготовки рабочих профессий, чтобы адаптировать их под изменяющиеся условия. Это также может потребовать изменения связанных регуляционных норм.

Международное взаимодействие. Нужен "деликатный баланс": сотрудничество с другими странами без ущерба для американских интересов и угроз раскрытия ключевых технологий.

Эксперты отмечают, что инициатива давно назрела, но в программе пока мало деталей и конкретики.

https://www.sciencemag.org/news/2019/02/trump-launch-artificial-intelligence-initiative-many-details-lacking
источник
2019 February 15
Quantum Quintum
Сегодня пара постов про нейронки.

В OpenAI научились неплохо генерировать тексты с помощью нового алгоритма GPT-2. На этот счет в The Verge вышел хороший отчет (см. по ссылке в конце). Отмечу несколько моментов:

1. Как говорят сами исследователи, "хорошие" тексты получаются в небольшом проценте случаев, но это показывает потенциал их подхода.

2. Получаемый текст обычно легко распознается "нечеловеческим": хотя у него  в среднем все хорошо с грамматикой и орфографией, он быстро отходит от заданной темы и предложения оказываются не очень согласованными. Но впечатляет не плавность языка, а гибкость результата.

3. Полученный алгоритм помимо генерации текста, может также использовать в переводе, обобщении длинных статей и ответах на тривиальные вопросы. Интересно отметить, что алгоритм не обучали именно переводу. Просто так получилось, что в сообщениях Reddit, которые были собраны для базы, в том числе содержились парные фразы на двух языках.

4. Прогресс в генерации качественных текстов ставит ряд этических вопросов, в частности, относительное использования ИИ в создании фейковых новостей. Представьте, что вы можете задать тему одним предложением, а на выходе получите убедительный текст на несколько абзацев? Поэтому OpenAI осторожно раскрывает детали своего алгоритма.

5. Так как текст обучался на базе, собранной в интернете, там есть много разного. Поэтому в принципе алгоритм может генерировать и дискриминационные тексты. Другими словами, стать основной для машины троллинга. Или фабрики.

The Verge: https://www.theverge.com/2019/2/14/18224704/ai-machine-learning-language-models-read-write-openai-gpt2
Open AI: https://blog.openai.com/better-language-models/
источник
Quantum Quintum
В Towards Data Science вышла хорошая вводная статья про капсульные сети (Capsule Networks).

Напомню, что это возможная альтернатива CNN, в частности, в задачах распознавания изображений. Капсульный подход закладывает новые принципы в построении нейронных сетей, которые, кажется, ближе к тому, как работает мозг (например, тут, в отличие от CNN, оказывается важным, как относительно друг друга расположены и ориентированы распознанные фичи).

Пока капсультные сети хорошо себя показывают только на небольших задачах вроде MNIST, поэтому навряд ли вы их будете использовать сегодня в коммерческих задачах, но как направление исследования -- самое то.

https://towardsdatascience.com/capsule-networks-the-new-deep-learning-network-bd917e6818e8
источник
2019 February 16
Quantum Quintum
Про Sci-Fi. Открытие года - Лю Цысинь с его трилогией "Память о прошлом Земли" ("Задача трех тел", "Темный лес" и "Вечная жизнь смерти").
Что зацепило лично меня:

1. Это внезапное открытие для западного мира: хотя в Китае первая книга вышла аж в 2007 году, в США она появилась спустя 7 лет, а у нас только в 2016. Открытие в том смысле, что там, за китайской стеной (и языком) внезапно обнаружилась своя мощная экосистема фантастики, хотя почему нет?

2. Это сильная проекция китайского мировосприятия и восприятия других наций. Понятно, что в центре персонажи азиатского происхождения, но с учетом размаха действия, история глобальная, поэтому там и американцы, и русские и много кто еще. В первой книге вас еще могут резануть отсылки к советскому союзу во времена культурной революции.

3. Это глобальный сеттинг, простирающийся не только в пространстве, но и во времени. А ключевая линия -- это мышление поколениями, почти не свойственное западной культуре. Тут особенно интересно смешение людей из разных эпох.

4. Это прогноз технологического развития глобальной цивилизации, в котором значительную роль играют не только прорывы в ключевых отраслях (или их отсутствие), но и социальная динамика, ставящая блокеры на одни сценарии и стимулирующая другие в критических условиях. [Отмечу, что прогноз 2010х из 200х оказался слегка оптимистичным, а жаль.]

5. Это пинг-понг между глобальными институтами и ролью личности, большими организациями и маленькими ячейками с внезапными ресурсами.

6. Это чужие цивилизации в темном лесу и попытка ответить на вопрос, чем же мы отличаемся если не от миллиарда других, то хотя бы от первой встреченной. Идея темного леса для меня лично вообще большое открытие.
источник
2019 February 18
Quantum Quintum
Про минитюаризацию. Небольшой стартап Xnor из Сиэттла разрабатывает маленькие платы с камерой и FPGA на борту, работающие от солнечных батареек.

Фактически, это автономные камеры с возможностью предварительной обработки изображений, например, для автоматического распознавания изображений. Для передачи данных используются энергоэффективные беспроводные протоколы вроде LoRa и NB-IoT.

https://www.theverge.com/circuitbreaker/2019/2/15/18225972/tiny-solar-powered-ai-camera-xnor
источник
2019 February 19
Quantum Quintum
В MIT Technology Review вышла хорошая статья о том, как ИИ меняет подход к изобретению и почему это происходит все чаще в "поисковых" дисциплинах вроде задачи создания новых лекарств.

Простой ответ заключается в том, что человек может перебрать и попробовать лишь ограниченное количество комбинаций (а количество доступных молекул только растет). С этим по идее должен хорошо справляться компьютер, но он не знает критериев, потому что четких критериев нет. Но есть исторические данные и вот тут появляется машинное обучение.

Чуть более сложный ответ состоит из нюансов. Например, ИИ может быть не так "хорош" и уйти в сторону, посмотреть на сочетание, которое не приходило в голову ученому. Машина легко справляется с оптимизацией в многомерном пространстве, которое с трудом укладывается в голове человека. Да и, в целом, анализ данных делает быстрее, беря на себя рутинные задачи.

Другой интересный аспект: согласно ряду работ поиск новых идей в таких областях как поиск лекарств, создание новых полупроводников и медицинские инновации... стагнирует, несмотря на рост инвестиций. Сделать прорыв становится сложнее. С экономической точки зрения, это проблема продуктивности. Продуктивность исследований падает каждый год.

С ростом сложности каждой из областей, растет время становления экспертом и выхода на максимальную продуктивность. Исследователи становятся более специализированными, соответственно, решение конкретной задачи требует все больших (и более дорогих) команд экспертов. Изобретение идет по экстенсивному пути через рост числа исследователей, берущихся за проблему.

Вот тут и приходит ИИ, не столько как панацея от всего на свете, сколько как прикладной инструмент повышения продуктивности. Например, если получится снизить классический срок получения нового материала с 15-20 лет до 2-5 за счет автоматизации части исследовательского поиска, это будет реальный прорыв во множестве индустрий. Это может снова сделать этот сегмент бизнеса привлекательным для инвестиций.

Но это потребует изменений на всей цепочке: предложить новую структуру, понять, как ее произвести, провести тестирование и собрать данные, обработать данные с аналитического оборудования. И это навряд ли будет (сразу) магическим процессом в духе "вот вам новое лекарство для вашей болезни". "Мы все еще ждем нашего момента AlphaGo в химии и материаловедении."

https://www.technologyreview.com/s/612898/ai-is-reinventing-the-way-we-invent/
источник
Quantum Quintum
На медиуме вышла замечательная статья о том, как плывет классическая модель принятия обществом новых технологий в эпоху больших данных. Если раньше первыми на новинки бросались исследователи, инноваторы, гики и т. п., то теперь они все больше обеспокоены данными, которые про них собираются стартапами и даже большими гигантами. Но им на смену приходят те, кто этим не парится. Не случайно, например, целевая аудитория Facebook Portal - более взрослое население и молодые семьи.

Я себе позволил по следам статьи слегка обновить классическую кривую адаптации новых технологий (см. картинку).
источник
Quantum Quintum
источник
2019 February 22
Quantum Quintum
В Quanta Magazine вышла очередная классная статья про мозг, а точнее клетки времени.

Статья рассказывает о последних открытиях в изучении мозга, в которых сошлись воедино фактические наблюдения за активностью нейронов в латеральной части энторинальной коры мозга (для контекста напомню, что в соседней, медиальной, части распологаюатся клетки сетки, или решетки, отвечающие за позиционировании в пространстве) и теоретические модели представления времени в мозге.

Краткое резюме (возможно, часть покажется вам очевидным из жизненного опыта):

1. Мозг мыслит последовательностями событий. Вспоминание какого-либо события (например, через визуальную ассоциацию), приводит к тому или иному паттерну всплеска и затуханий. Паттерны активации нейронов можно сравнивать, выстраивая их в последовательностью. (Классическое ощущение, что если ничего не происходит -- это нам кажется вечность, -- отсюда же.)

2. События получают уникальные временные отметки в виде комбинаций активности возбуждения разных нейронов. Теоретическое преобразование времени в колебание и обратно описываются прямым и обратным преобразованием Лапласа и результат очень близок к наблюдениям.

3. Вероятно, что подобное кодирование времени используется и в других отделах мозга, а сам формат преобразования -- и в других задачах, например, кодировании чисел или пространства.

4. Скорее всего, этот же "алгоритм" используется для описания прогнозирования в будущем, но это предмет дальнейших исследований.

5. Глубокое понимание того, как время кодирует мозг, может привести нас к новым моделям кодирования времени в задачах машинного обучения.

https://www.quantamagazine.org/how-the-brain-creates-a-timeline-of-the-past-20190212/
источник
2019 March 05
Quantum Quintum
Помните шутку про букву S в IoT, означающую Security (безопасность)? В принципе, можно говорить о такой же шутке про букву S в AI (как и многих других модных сегодня темах).

Исследователи Microsoft AI&Research выложили публикацию о проблемах безопасности в ИИ (и более узко — машинном обучении). Вкратце: все плохо.

Резюме:
1. Для обеспечения безопасности в цикле DevOps при работе с ИИ-моделями и данными необходимо внедрять концепции сопротивляемости (resilience) и дискретности (discretion). Поменяться должны почти все традиционные домены безопасности, включая аутентификацию, авторизацию, проверку ввода и отказы в обслуживании. Без изменений в этих направлениях вы быстро падете жертвой злоумышленников разного пошива, вооруженных системами с AI/ML.

2. Модели машинного обучения практически неспособны отличить злонамеренный ввод от нормальных аномальных данных. Значительная доля данных происходит от немодерируемых и непроверяемых публичных дата-сетов, открытых для вкладов со стороны третьих лиц. Злоумышленнику не нужно атаковать датасет, если можно просто внести свой вклад. Отравление датасета может долго оставатся незамеченных, "непонятно" снижая при этом эффективность моделей. Со временем, вредные данные могут стать "доверенными" данными, внося существенные искажения.

3. Учитывая высокое число скрытых слоев в достаточно сложных моделей нейронных сетей, слишком много доверия оказывается процессу машинного обучения и алгоритмам обучения без критичного понимания, как принимаемые решения достигнуты. Во многих отраслях цена неверного решения может быть слишком высока. ИИ должен включать встроенные возможности инспекции, обеспечивая прозрачность и ответственность за решения (что может также стать критичным при судебных разбирательствах).

Безопасникам и дата-сайнтистам/эмэльщикам рекомендую читать целиком: https://docs.microsoft.com/en-us/security/securing-artificial-intelligence-machine-learning
источник
2019 March 06
Quantum Quintum
В продолжение темы безопасности: исследователи из Microsoft Research разбирают задачу фильтрации атакующего траффика при попытке подбора данных для входа в аккаунты пользователей. И тут если в depth-first подходе, когда атакующая сторая перебирает разные пароли к одному аккаунту, все просто, то в случае breadth-first подхода все в целом хуже, но решаемо.

Breadth-first подход означает, что атакующей сторону вообще все равно, через какую точку она попадет в организацию. Представьте, что у вас 10 тысяч (потенциально удаленных) сотрудников и как-то злоумышленнику стали известны их логины или он может их предсказать. Вместо того, чтобы бить в одну точку, атакующая сторона распределяет нагрузку по случайным пользователям. Которые, в принципе, легко могут ошибаться при вводе паролей.

Тут в игру включаются большие числа. Если какой-то пароль более популярен, то он более популярен и в этих 10 тысячах, а обнаружить такую распределенную атаку сложнее.

Исследователи в качестве первого шага предлагают анализировать траффик с точки зрения частотности ошибок. Решение достаточно простое: ваши пользователи ошибаются в 5% случаев, а злоумышленник в 99%.

Обзор: https://www.darkreading.com/researchers-propose-new-approach-to-address-online-password-guessing-attacks/d/d-id/1333939
Публикация: https://cormac.herley.org/docs/distinguishBotsFromLegitNDSS.pdf
источник
2019 March 13
Quantum Quintum
О важном: мы наконец-то выложили Accessibility Insights — наши внутренние инструменты для анализа доступности сайтов и Windows-приложений. Первое доступно в виде плагина для Chrome, второе - Windows-приложение, напоминающее Inspect из Widnows SDK, но заточенное под задачи проверки доступности.

Мне кажется, подобные инструменты должны стать просто обязательными при выпуске любых приложений и сайтов.

Подробности и скачать можно тут: https://accessibilityinsights.io/

p.s. Проекты с открытым кодом:
Web: https://github.com/Microsoft/accessibility-insights-web
Windows: https://github.com/Microsoft/accessibility-insights-windows
источник
2019 March 18
Quantum Quintum
Страшилка про Китай, набирающий обороты в ИИ, продолжает будоражить умы американцев. MIT Technology Review пишут о новом исследовании китайских публикаций на тему ИИ, из которого следует, что Китай сокращает разрыв с США намного быстрее, чем те думали раньше.

Новое исследование, проведенное фондом Ai2 Пола Аллена (сооснователь Microsoft), фокусируется на фундаментальных исследованиях и учитывает международную цитируемость работ, а не просто их количество (по этому показателю Китай обошел США еще в прошлом десятилетии, но качество работ вызывало большие сомнения). Из текущей динамики следует, что по цитируемости Китай обгонит США в top 50%-цитируемых уже в этом году, в top 10% - в 2020 и в top 1% к 2025.

Фактически это означает, что на работы китайских ученых будут ссылаться как на фундаментальные (ключевые) в индустрии.

Запрос к правительству США тоже очевиден: увеличить инвестиции в исследования и выдачу виз для студентов и исследователей в перспективных областях.

Обзор MIT: https://www.technologyreview.com/s/613117/china-may-overtake-the-us-with-the-best-ai-research-in-just-two-years
Исследование: https://medium.com/ai2-blog/china-to-overtake-us-in-ai-research-8b6b1fe30595
источник
2019 March 19
Quantum Quintum
В мире разработки под XR (AR/MR/VR) наступило счастье: вышла предварительная версия спецификации OpenXR 0.9. Новый стандарт причесывает зоопарк разных железячных и софтверных решений, вводя между ними единые API как на уровне устройств, так и на уровне конечных приложений (фреймворков). Другими словами, фрагментации должно стать меньше, а порог входа для новых игроков должен понизиться.

Также, в рамках анонса, Microsoft выпустила предварительную реализацию OpenXR runtime для платформы Windows Mixed Reality. Oculus обещает добавить реализацию в течение этого года. А компания Collabora выпустила Monado — открытую реализацию стандарта под Linux.

Обзор: https://www.roadtovr.com/openxr-0-9-provisional-release-microsoft-oculus-collabora-implementations/
Слайдики с деталями: https://www.khronos.org/assets/uploads/apis/OpenXR-Update-GDC_v20190316c_Mar19.pdf
источник
2019 March 20
Quantum Quintum
GDC — традиционное время классных анонсов, причем не только про игры. Например, Nvidia запустила производство AI-платы Jetson Nano за $99 (devkit-версия) для использования в конечных устройствах. Все это отлично продолжает развитие вектора "интеллектуальности на границе".

Плата включает 4-ядерный процессов ARM A57, 128-ядерный модуль Nvidia Maxwell GPU и 4GB памяти LPDDR RAM. На плате можно гонять модели на TensorFlow, PyTorch, Caffe, Keras и MXNet. Сама плата выпускается в двух вариантах: devkit для разработки, ориентированный на энтузиастов, и промышленная плата для использования в конечных устройствах.

Отмечу несколько моментов:
1. Потихоньку Nvidia выстроила целую линейку семейства Jetson, в которой вы можете выбрать плату, необходимой вам мощности.
2. Для "умных устройств" эти платы могут быть самодостаточными, то есть они уже несут в себе ARM-процессор и GPU-модуль для управления логикой и обсчета операций. (Не нужны малина, ардуино, интел и т.п.)
3. Гибридная тактика с устройствами для энтузиастов и промышленным образцом. Первое дает охват, второе обеспечивает компактность.

4. Я на этом фоне вспоминаю анонс на прошлой неделе похожей по целевым задачам платы NM6408 от российского НТЦ «Модуль». Оставляя за скобками сравнение плат (например, они очень близки по обещаемой производительности), отмечу, что в подаче информации, продвижении и упаковке в ценностное предложение и понимании аудитории... между Nvidia и "Модулем" километровая пропасть. А жаль.

Обзор Jetson Nano: https://www.theverge.com/circuitbreaker/2019/3/18/18271329/nvidia-jetson-nano-price-details-specs-devkit-gdc
Анонс NM6408: http://www.cnews.ru/news/top/2019-03-06_svet_uvidel_moshchnejshij_rossijskij_nejroprotsessor
источник
2019 March 21
Quantum Quintum
Горячий пирожок о том, как выстраивать CI/CD-процесс для ML-задач на платформе Azure. Отмечу из своих наблюдений — по мере того, как все больше наших клиентов погружается в тему машинного обучения для своих прикладных задач, рано или поздно наступает момент интеграции в производство. И это весьма болезненная тема: даже если в тестовом окружении моделька себя показывала хорошо, не факт, что так будет на реальных данных. Тут наступает первая ломка: как замкнуть процесс обучения "по живому". Дальше оказывается, что как только вы встроились в живой процесс, нельзя просто взять и обновить модель обновлением файлика модели (то есть, можно, но будет бо-бо). Тут наступает вторая ломка: накладывание ограничений (интеграционных тестов), чтобы убедиться, что ничего не сломается и т.п.

Кстати, тема непрерывного тестирования моделей — та еще задача.

https://azure.microsoft.com/en-us/blog/breaking-the-wall-between-data-scientists-and-app-developers-with-azure-devops/
источник
2019 March 22
Quantum Quintum
Про XR в нетрадиционном и моем любимом измерении. В блоге Microsoft Design вышла отличная статья о важности проектирования звука в цифровом опыте.

Звук (как и другие каналы получения информации) нельзя воспринимать изолировано. На самом деле, мозг параллельно обрабатывает все сенсорные сигналы и результат зависит от их сочетания. Тот же звук участвует в нашем ощущении:
— текстуры и материала,
— физической и эмоциональной составляющей языка,
— прохождения времени,
— пространства и окружения.

В связи с этим, возможно, на смену устаревшей модели использования звука в приложениях в основном в качестве уведомительных сигнолов (отсюда восприятие звука в цифровом дизайне как раздражающего фактора) должна прийти новая целостная практика, учитывающая естественное восприятие звуков телом в том или ином контексте, — чувственная модель звука, которая не про звук и слух, а про звук и ощущение.

В этой модели звук — это не набор дискретных сигналов, а континуум звукового сопровождения, в котором тишина — это "красиво", а не беззвучно. Чувствунный звук не претендует на внимание человека, а помогает ему почувствовать глубину цифрового пространства. При этом звук рассматривается с двух сторон: как физическая энергия (вибрация и ощущение) и как физиологическая энергия (эмоция и значение). На звук  можно смотреть как на дизайн физических касаний (хотя воздействие обычно происходит на расстоянии), а не просто как аудио-сопровождение.

В целом мы в самом начале целостного пересмотра проектирования опыта.

https://medium.com/microsoft-design/beyond-vision-sound-design-as-sensory-design-3259a8ca59ea
источник
2019 March 26
Quantum Quintum
SingularityHub пишет о "неочевидном мышлении" и "неочевидных трендах". В основе статьи -- размышления Rohit Bhargava, предпринимателя, автора популярной серии "неочевидное" и известного спикера и исследователя на тему трендов.

"Неочевидное мышление" -- это способность видеть мир не так, как его видят другие люди. "Секрет в тщательном отборе идей". Bhargava использует метод стога сена, но вместо того, чтобы искать в нем иголку, он "собирает" сено и размещает иголку в середину (иголка и есть тренд). Важная часть сбора -- смотреть в места, в которые обычно не заглядывают. Например, помимо чтения общепринятых источников вроде New York Times, Washington Post и Economist, надо читать Modern Farmer, Teen Vogue и Ink. Он также отмечает, что из-за персонализации в online становится сложнее залезть в новую территорию.

Три основных барьера для "неочевидного мышления": 1) предположения, которые не подвергаются сомнениям, -- факты или привычки, которые мы считаем неизменными; 2) зашумляющее ожидание постоянных перемен -- все меняется, скорость перемен заставляет нас хотеть все сразу все время и ожидать невозможного, 3) кризис веры, как следствие перемен, делает нас скептичными относительно всего на свете, в мире пост-правды мы перестаем отличать реальность.

Неочевидные тренды 2019:
1. Ретро-правда. Стремление доверять событиям, к которым мы имеем отношение. Ностальгия по винилу, пленке, кнопочным телефонам и т. п.

2. Запутанная мужественность. Успехи женщин в лидерстве, владении собственностью, оценках и т.п. разрушают концепцию мужественности. Мы перестаем понимать, что значит "быть мужчиной".

3. Зависть на инновации. Инновация стала слишком расхожим словом. "Мы инновируем, смотря на других и повторяя их действия." На радикальные изменения мы говорим, что нужно провести исследования перед внедрением. А на повторение чужого мы с легкостью навешиваем ярлык инноваций.

4. Искусственное влияние. Благодаря медиа и социальным технологиям, растет число сфабрикованных потоков информации, которые влияют на то, как мы думаем.

5. Корпоративная эмпатия. Эмпатия становится не просто важной ценностью, но и драйвером инноваций. Компании ищут способы дать людям ощущение застрахованности и заботы.

6. Ренессанс роботов. От автоматизации фабрик к переворачиванию котлеток и чистке полов, роботы все больше проникают в нашу жизнь.

7. Возврат к сторителлингу. Компании и организации вернулись к рассказу историй своего бренда, чтобы заполучить лояльность клиентов. Истории придают значимости, возможности прикоснуться к пониманию мира.

https://singularityhub.com/2019/03/21/these-trends-arent-obvious-but-theyre-helping-shape-the-future/
источник