Естественный пользовательский интерфейс
В вычислительной технике естественный пользовательский интерфейс ( NUI ) или естественный интерфейс — это пользовательский интерфейс , который фактически невидим и остается невидимым, поскольку пользователь постоянно изучает все более сложные взаимодействия. Слово «естественный» используется потому, что в большинстве компьютерных интерфейсов используются искусственные устройства управления, работу которых необходимо изучить. Примеры включают голосовых помощников , таких как Alexa и Siri, сенсорное и мультитач-взаимодействие на современных мобильных телефонах и планшетах, а также сенсорные интерфейсы, невидимо интегрированные в текстильную мебель. [1]
NUI предполагает, что пользователь сможет быстро перейти от новичка к эксперту. Хотя интерфейс требует обучения, это обучение облегчается благодаря дизайну, который дает пользователю ощущение мгновенного и постоянного успеха. Таким образом, «естественный» относится к цели пользовательского опыта – чтобы взаимодействие происходило естественно при взаимодействии с технологией, а не к тому, чтобы сам интерфейс был естественным. Это контрастирует с идеей интуитивно понятного интерфейса , который можно использовать без предварительного обучения.
Было предложено несколько стратегий проектирования, которые с разной степенью успеха достигли этой цели. Одной из стратегий является использование « реального пользовательского интерфейса » (« RUI »), [2] также известные как « интерфейсов, основанных на реальности » ( RBI методы ). Одним из примеров стратегии RUI является использование носимого компьютера для визуализации объектов реального мира «кликабельными», то есть чтобы пользователь мог щелкнуть любой повседневный объект, чтобы он функционировал как гиперссылка, таким образом объединяя киберпространство и реальный мир. . Поскольку термин «естественный» напоминает «мир природы», RBI часто путают с NUI, хотя на самом деле они являются лишь одним из средств достижения этого.
Одним из примеров стратегии разработки NUI, не основанной на RBI, является строгое ограничение функциональности и настройки, так что пользователям практически нечему научиться при работе с устройством. При условии, что возможности по умолчанию соответствуют целям пользователя, использовать интерфейс легко. Это всеобъемлющая стратегия дизайна в iOS от Apple. [ нужна ссылка ] Поскольку этот дизайн совпадает с дисплеем с прямым касанием, недизайнеры обычно ошибочно приписывают легкость взаимодействия с устройством этому мультисенсорному дисплею, а не дизайну программного обеспечения, в котором оно фактически находится.
История
[ редактировать ]
В 1990-х годах Стив Манн разработал ряд стратегий пользовательского интерфейса, используя естественное взаимодействие с реальным миром в качестве альтернативы интерфейсу командной строки (CLI) или графическому пользовательскому интерфейсу (GUI). Манн назвал эту работу «естественными пользовательскими интерфейсами», «прямыми пользовательскими интерфейсами» и «вычислениями без метафор». [3] компании Mann Технология EyeTap обычно представляет собой пример естественного пользовательского интерфейса. Использование Манном слова «Естественный» относится как к действию, которое естественно для человека, так и к использованию самой природы, то есть физики ( естественной философии ), и природной среды. Хорошим примером NUI в обоих этих смыслах является гидроулофон , особенно когда он используется в качестве устройства ввода, в котором прикосновение к природному элементу (воде) становится способом ввода данных. В более общем смысле, класс музыкальных инструментов, называемых «физифоны», названных так от греческих слов «физика», «физикос» (природа) и «телефон» (звук), также был предложен в качестве «природных пользовательских интерфейсов». [4]
В 2006 году Кристиан Мур основал открытое исследовательское сообщество с целью расширить обсуждение и развитие технологий NUI. [5] В презентации на конференции 2008 года «Прогнозирование прошлого» Август де лос Рейес, главный директор по пользовательскому опыту подразделения поверхностных вычислений Microsoft, описал NUI как следующую эволюционную фазу после перехода от CLI к GUI. [6] Конечно, это тоже чрезмерное упрощение, поскольку NUI обязательно включают в себя визуальные элементы и, следовательно, графические пользовательские интерфейсы. Более точным описанием этой концепции было бы описать ее как переход от WIMP к NUI.
В CLI пользователям приходилось изучать искусственные средства ввода — клавиатуру и ряд кодифицированных вводов, которые имели ограниченный диапазон ответов, а синтаксис этих команд был строгим.
Затем, когда мышь активировала графический интерфейс, пользователи могли легче изучать движения и действия мыши и могли гораздо больше исследовать интерфейс. Графический интерфейс опирался на метафоры для взаимодействия с экранным контентом или объектами. Например, «рабочий стол» и «перетаскивание» являются метафорами визуального интерфейса, который в конечном итоге был переведен обратно на строгий кодифицированный язык компьютера.
Пример неправильного понимания термина NUI был продемонстрирован на выставке Consumer Electronics Show в 2010 году. «Теперь новая волна продуктов готова принести естественные пользовательские интерфейсы, как называются эти методы управления электронными устройствами, еще более широкой аудитории. " [7]
В 2010 году Билл Бакстон из Microsoft подтвердил важность NUI в корпорации Microsoft, выпустив видео, в котором обсуждались технологии, которые можно использовать при создании NUI, и его будущий потенциал. [8]
В 2010 году Дэниел Вигдор и Деннис Виксон в своей книге представили практическую реализацию создания естественных пользовательских интерфейсов. [9] В нем они тщательно различают естественные пользовательские интерфейсы, технологии, используемые для их достижения, и пользовательский интерфейс, основанный на реальности.
Ранние примеры
[ редактировать ]Мультитач
[ редактировать ]Когда Билла Бакстона спросили об интерфейсе iPhone, он ответил: «Технологии мультитач имеют долгую историю. Для сравнения: первоначальная работа, проделанная моей командой, была выполнена в 1984 году, в том же году, когда был выпущен первый компьютер Macintosh. , и мы не были первыми». [10]
Multi-Touch — это технология, которая может обеспечить естественный пользовательский интерфейс. Однако большинство наборов инструментов пользовательского интерфейса, используемых для создания интерфейсов, выполняемых с помощью такой технологии, представляют собой традиционные графические интерфейсы.
Примеры интерфейсов, обычно называемых NUI
[ редактировать ]Восприимчивый пиксель
[ редактировать ]Одним из примеров является работа Джефферсона Хана над мультитач- интерфейсами. На демонстрации на TED в 2006 году он продемонстрировал различные способы взаимодействия с экранным контентом, используя как прямые манипуляции, так и жесты. Например, чтобы сформировать на экране клейкую массу, Джефф буквально «щипает», тыкает и тыкает ее пальцами. Например, в графическом интерфейсе приложения для проектирования пользователь будет использовать для этого метафору «инструментов», например, выбирая инструмент или две части массы, к которым он затем хочет применить «щипок». действие, чтобы. Хан показал, что взаимодействие с пользователем может быть гораздо более интуитивным, если отказаться от привычных нам устройств взаимодействия и заменить их экраном, способным обнаруживать гораздо более широкий диапазон человеческих действий и жестов. Конечно, это допускает лишь очень ограниченный набор взаимодействий, которые четко соответствуют физическим манипуляциям (ИРБ). Расширение возможностей программного обеспечения за пределы физических действий требует значительно большего объема проектной работы.
Microsoft PixelSense
[ редактировать ]Microsoft PixelSense использует аналогичные идеи о том, как пользователи взаимодействуют с контентом, но добавляет возможность устройству оптически распознавать объекты, расположенные поверх него. Таким образом, пользователи могут запускать действия на компьютере с помощью тех же жестов и движений, что и сенсорный экран Джеффа Хана, но при этом объекты становятся частью механизмов управления. Так, например, когда вы ставите бокал на стол, компьютер распознает его как таковой и отображает содержимое, связанное с этим бокалом. Размещение бокала на столе хорошо отражает действия, выполняемые с бокалами и другими столами, и, таким образом, хорошо отражается на интерфейсах, основанных на реальности. Таким образом, это можно рассматривать как вход в опыт NUI.
3D иммерсивное прикосновение
[ редактировать ]«3D Immersive Touch» определяется как прямое манипулирование объектами трехмерной виртуальной среды с использованием аппаратного обеспечения с одним или несколькими касаниями в многопользовательских виртуальных трехмерных средах. Впервые был придуман в 2007 году для описания и определения принципов обучения естественному трехмерному пользовательскому интерфейсу, связанных с Edusim. Естественный пользовательский интерфейс Immersive Touch теперь приобретает более широкую направленность и значение благодаря более широкой адаптации поверхностного и сенсорного оборудования, такого как iPhone, iPod touch, iPad и растущего списка другого оборудования. Apple также, похоже, в последние несколько лет проявляет большой интерес к естественным пользовательским 3D-интерфейсам «Immersive Touch». Эта работа опирается на обширную академическую базу, изучающую 3D-манипуляции в средах виртуальной реальности.
Xbox Кинект
[ редактировать ]Kinect — это с датчиком движения устройство ввода от Microsoft для Xbox 360 игровой консоли и с ОС Windows ПК , которое использует для взаимодействия пространственные жесты вместо игрового контроллера . Согласно Microsoft странице , Kinect разработан для «революционно нового способа игры: контроллер не требуется». [11] Опять же, поскольку Kinect позволяет воспринимать физический мир, он демонстрирует потенциал для проектов RBI и, следовательно, потенциально также для NUI.
См. также
[ редактировать ]- Эдусим
- Отслеживание глаз
- Кинетический пользовательский интерфейс
- Органичный пользовательский интерфейс
- Виртуальный помощник
- Пост-ВИМП
- Скретч-ввод
- Пространственная навигация
- Осязаемый пользовательский интерфейс
- Сенсорный пользовательский интерфейс
Примечания
[ редактировать ]- ^ Браунер, Филипп; ван Хик, Джулия; Зифле, Мартина; Хамдан, Нур Аль-худа; Борчерс, Январь (17 октября 2017 г.). «Интерактивная МЕБЕЛЬ» . Материалы Международной конференции ACM по интерактивным поверхностям и пространствам 2017 года . Брайтон, Великобритания: ACM. стр. 151–160. дои : 10.1145/3132272.3134128 . ISBN 978-1-4503-4691-7 . S2CID 10774834 .
- ^ Пользовательский интерфейс реальности (RUI) , в документе с заключительным основным докладом, озаглавленном «Реконфигурированная личность как основа гуманистического интеллекта», Стив Манн, USENIX-98, Новый Орлеан, 15–19 июня 1998 г., Опубликовано в: ATEC '98 Материалы ежегодной конференции USENIX Ежегодная техническая конференция Ассоциации USENIX Беркли, Калифорния, США © 1998 г.
- ^ Интеллектуальная обработка изображений, Джон Уайли и сыновья, 2001 г.
- ^ Естественные интерфейсы для музыкального выражения, Стив Манн, Ним, 2007 г.
- ^ Мур, Кристиан (15 июля 2006 г.). «Открыто новое сообщество» . Сообщество группы NUI.
- ^ де лос Рейес, август (25 сентября 2008 г.). «Предсказание прошлого» . Веб-направления Юг 2008 . Сиднейский конференц-центр: Интернет-направления.
- ^ Вингфилд, Ник (5 января 2010 г.). «Тело в движении: выставка CES продемонстрирует сенсорные вещицы» . Уолл Стрит Джорнал.
- ^ Бакстон, Билл (6 января 2010 г.). «CES 2010: NUI с Биллом Бакстоном» . Исследования Майкрософт.
- ^ Храбрый мир NUI
- ^ Бакстон, Билл. «Мультитач-системы, которые я знал и любил» . Билл Бакстон.
- ^ «Проект Xbox.com Натал» . Архивировано из оригинала 9 июля 2009 г. Проверено 2 августа 2009 г.
Ссылки
[ редактировать ]- http://blogs.msdn.com/surface/archive/2009/02/25/what-is-nui.aspx
- https://www.amazon.com/Brave-NUI-World-Designing-Interfaces/dp/0123822319/ref=sr_1_1?ie=UTF8&qid=1329478543&sr=8-1 Книга Brave NUI World от создателей NUI Microsoft Surface