Microsoft работает над распознаванием жестов, сделанных с помощью рук
Невзирая на то, что сенсорные экраны обеспечили суровый скачок в развитии мобильных устройств, все они еще ограничивают способности ввода данных. Руки человека могут делать самые различные движения, но когда речь доходит до использования сенсорных технологий, то приходится ограничиваться в буквальном смысле слова тыканьем пальцев в экран.
В Microsoft желают расширить способности сенсорных панелей и обучить их принимать жесты, создаваемые руками. К примеру ладонь поставленная ребром может восприниматься как ровная линия для обрезания изображения. Буковка «О», показанная рукою, может автоматом вызывать увеличительное стекло.
Пока базисных жестов всего три: кулак держит объекты, рука, поставленная на ребро, задает линию перпендикулярно которой можно двигать объект, и очередной жест устанавливает ось вращения. Добавление других жестов не является неувязкой, но в то же время в Microsoft желают свести их количество к минимуму, чтоб юзерам не пришлось заучивать очень много новых движений.
Для демонстрации проекта «Rock and Rails» употребляется платформа Surface, которая умеет выслеживать жесты юзеров при помощи способов, труднодоступных в обыденных сенсорных экранах. Таким макаром ждать внедрения новейшей технологии в мобильных устройствах уже завтра, не стоит.
Поглядеть видео с презентацией можно тут.