В продолжении тему предыдущего поста. Мир не стоит на месте. И вот уже Google показывает свою технологию жестов, на основе сенсорных датчиков.
Продуктом занимался известный с 2015 года Soli Project. Ребята из этого проекта и раньше занимались мобильными технологиями (не путать с Project Ara, которые делали телефон-конструктор). Теперь, кроме определения объектов, можно понимать жесты. Три года назад чипы с технологией послали 60 разработчикам и вот результат.
Решение по отслеживанию жестов руки и даже пальцев, заменит множество интерфейсов: от управления часами и некоторого функционала в самолетах. Кроме того, такая технология поможет людям с ограниченной подвижностью, речью, или тактильными нарушениями, которые, в свою очередь, поможет им найти работу и встроиться в экономику там, где раньше это было невозможно.
Facebook нажаловался FCC, мол, частоты Soli могут мешать другим устройствам. Еще бы! Свой Oculus тоже нужно куда-то пристраивать. Но с этим разобрались.
Теперь ждем анонс устройства, в который инвестировал Google, которое создает ощущения объястий при помощи жестов.
Мы живем в самое лучшее время за всю историю человечества. Не моргайте!
https://techcrunch.com/2019/01/02/us-fcc-approves-google-soli-project/