В вычислении , А естественный пользовательский интерфейс , или Нуи , или естественный интерфейс является пользовательский интерфейс , который фактически невидим, и остается невидимым , как пользователь непрерывно узнает все более и более сложных взаимодействий. Слово «естественный» используется потому, что в большинстве компьютерных интерфейсов используются искусственные устройства управления, работу которых необходимо изучить.
NUI полагается на возможность пользователя быстро перейти от новичка к эксперту. Хотя интерфейс требует обучения, это обучение облегчается дизайном, который дает пользователю ощущение, что он мгновенно и постоянно добивается успеха. Таким образом, «естественный» относится к цели в пользовательском опыте - чтобы взаимодействие происходило естественно при взаимодействии с технологией, а не к естественности самого интерфейса. Это контрастирует с идеей интуитивно понятного интерфейса , относящегося к интерфейсу , который можно использовать без предварительного обучения.
Было предложено несколько дизайнерских стратегий, которые с разной степенью успеха достигли этой цели. Одна из стратегий - использование « реального пользовательского интерфейса » (« RUI ») [1], также известного как методы « реального интерфейса » ( RBI ). Одним из примеров стратегии RUI является использование носимого компьютера для визуализации объектов реального мира "кликабельными", т. Е. Чтобы пользователь мог щелкнуть любой повседневный объект, чтобы он функционировал как гиперссылка, тем самым объединяя киберпространство и реальный мир. . Поскольку термин «естественный» вызывает ассоциации с «миром природы», RBI часто путают с NUI, хотя на самом деле они являются лишь одним из средств достижения этого.
Одним из примеров стратегии разработки NUI, не основанного на RBI, является строгое ограничение функциональности и настройки, так что пользователям очень мало что нужно изучать при работе с устройством. При условии, что возможности по умолчанию соответствуют целям пользователя, интерфейс прост в использовании. Это всеобъемлющая стратегия дизайна в iOS от Apple. [ необходима цитата ] Поскольку этот дизайн совпадает с дисплеем с прямым сенсорным экраном, люди, не являющиеся разработчиками, обычно ошибочно приписывают легкость взаимодействия с устройством этому мультисенсорному дисплею, а не дизайну программного обеспечения, в котором оно фактически находится.
История
В 1990-х Стив Манн разработал ряд стратегий пользовательского интерфейса, используя естественное взаимодействие с реальным миром в качестве альтернативы интерфейсу командной строки (CLI) или графическому пользовательскому интерфейсу (GUI). Манн назвал эту работу «естественными пользовательскими интерфейсами», «прямыми пользовательскими интерфейсами» и «вычислениями без метафор». [2] Технология Mann EyeTap обычно воплощает пример естественного пользовательского интерфейса. Использование Манном слова «естественный» относится как к естественным действиям человека, так и к использованию самой природы, то есть физики ( естественная философия ), и естественной окружающей среды. Хорошим примером NUI в обоих этих смыслах является гидроулофон , особенно когда он используется в качестве устройства ввода, в котором прикосновение к естественному элементу (воде) становится способом ввода данных. В более общем смысле, класс музыкальных инструментов, называемых «физифонами», названных так от греческих слов «Physika», «Physikos» (природа) и «phone» (звук), также был предложен как «естественные пользовательские интерфейсы». [3]
В 2006 году Кристиан Мур основал открытое исследовательское сообщество с целью расширить обсуждение и развитие технологий NUI. [4] В презентации на конференции 2008 года «Предсказание прошлого» Август де лос Рейес, главный директор по взаимодействию с пользователем в Microsoft Surface Computing, описал NUI как следующий этап эволюции после перехода от CLI к GUI. [5] Конечно, это тоже чрезмерное упрощение, поскольку NUI обязательно включают визуальные элементы - и, следовательно, графические пользовательские интерфейсы. Более точное описание этой концепции было бы описать ее как переход от WIMP к NUI.
В интерфейсе командной строки пользователи должны были изучить искусственные средства ввода, клавиатуру и серию кодифицированных вводов, которые имели ограниченный диапазон ответов, при этом синтаксис этих команд был строгим.
Затем, когда мышь включала графический интерфейс, пользователи могли более легко изучать движения и действия мыши и могли гораздо больше исследовать интерфейс. Графический интерфейс пользователя полагался на метафоры для взаимодействия с экранным контентом или объектами. Например, «рабочий стол» и «перетаскивание» - метафоры для визуального интерфейса, который в конечном итоге был переведен обратно на строго кодифицированный язык компьютера.
Пример неправильного понимания термина NUI был продемонстрирован на выставке Consumer Electronics Show в 2010 году. «Теперь новая волна продуктов готова предоставить естественные пользовательские интерфейсы, как называются эти методы управления электронными устройствами, еще более широкой аудитории. " [6]
В 2010 году Билл Бакстон из Microsoft подтвердил важность NUI в корпорации Microsoft в видеоролике, в котором обсуждались технологии, которые могут быть использованы при создании NUI, и его будущий потенциал. [7]
В 2010 году Дэниел Вигдор и Деннис Виксон представили в своей книге операционализацию создания естественных пользовательских интерфейсов. [8] В нем они тщательно различают естественные пользовательские интерфейсы, технологии, используемые для их достижения, и пользовательский интерфейс, основанный на реальности.
Ранние примеры
Мультитач
Когда Билла Бакстона спросили об интерфейсе iPhone, он ответил: «Технологии мультитач имеют долгую историю. Для сравнения: первоначальная работа, проделанная моей командой, была сделана в 1984 году, в том же году, когда был выпущен первый компьютер Macintosh. , и мы не были первыми ». [9]
Multi-Touch - это технология, которая может обеспечить естественный пользовательский интерфейс. Однако большинство наборов инструментов пользовательского интерфейса, используемых для создания интерфейсов, выполняемых с помощью такой технологии, представляют собой традиционные графические интерфейсы пользователя.
Примеры интерфейсов, обычно называемых NUI
Воспринимаемый пиксель
Одним из примеров является работа Джефферсона Хана над мультитач- интерфейсами. На демонстрации на TED в 2006 году он продемонстрировал различные способы взаимодействия с экранным контентом, используя как прямые манипуляции, так и жесты. Например, чтобы сформировать на экране клейкую массу, Джефф буквально «щипает», толкает и ткнет ее пальцами. Например, в графическом интерфейсе приложения для дизайна пользователь будет использовать метафору «инструменты», чтобы сделать это, например, выбрав рабочий инструмент или выбрав две части массы, к которым он затем хотел бы применить «щипок». действие к. Хан показал, что взаимодействие с пользователем может быть гораздо более интуитивным, если отказаться от устройств взаимодействия, к которым мы привыкли, и заменить их экраном, способным обнаруживать гораздо более широкий спектр человеческих действий и жестов. Конечно, это допускает только очень ограниченный набор взаимодействий, которые четко соответствуют физическим манипуляциям (RBI). Расширение возможностей программного обеспечения за пределы физических действий требует значительно большего объема проектных работ.
Microsoft PixelSense
Microsoft PixelSense использует аналогичные идеи о том, как пользователи взаимодействуют с контентом, но добавляет возможность устройству оптически распознавать объекты, расположенные поверх него. Таким образом, пользователи могут запускать действия на компьютере с помощью тех же жестов и движений, которые позволял сенсорный экран Джеффа Хана, но также объекты становятся частью механизмов управления. Так, например, когда вы ставите бокал для вина на стол, компьютер распознает его как таковой и отображает контент, связанный с этим бокалом. Размещение бокала на столе хорошо отражается на действиях, предпринятых с бокалами для вина и другими столами, и, таким образом, хорошо отображается на интерфейсах, основанных на реальности. Таким образом, это можно рассматривать как начало опыта NUI.
3D иммерсивное касание
«3D иммерсивное прикосновение» определяется как прямое манипулирование объектами трехмерной виртуальной среды с использованием оборудования с одной или несколькими сенсорными поверхностями в многопользовательских трехмерных виртуальных средах. Создан впервые в 2007 году для описания и определения принципов обучения трехмерному естественному пользовательскому интерфейсу, связанных с Edusim. Естественный пользовательский интерфейс Immersive Touch теперь, кажется, приобретает более широкую направленность и значение благодаря более широкой адаптации поверхностного и сенсорного оборудования, такого как iPhone, iPod touch, iPad и растущего списка другого оборудования. Apple также, кажется, проявляет большой интерес к естественным пользовательским интерфейсам «Immersive Touch» в течение последних нескольких лет. Эта работа строится на широкой академической базе, изучающей 3D-манипуляции в средах виртуальной реальности.
Xbox Kinect
Kinect - это устройство ввода с датчиком движения от Microsoft для игровой консоли Xbox 360 и ПК с Windows, которое использует пространственные жесты для взаимодействия вместо игрового контроллера . Согласно странице Microsoft , Kinect разработан для «революционно нового способа игры: контроллер не требуется». [10] Опять же, поскольку Kinect позволяет ощущать физический мир, он показывает потенциал для дизайна RBI и, следовательно, потенциально также для NUI.
Смотрите также
- Эдусим
- Отслеживание глаз
- Кинетический пользовательский интерфейс
- Органический пользовательский интерфейс
- Интеллектуальный личный помощник
- Пост-WIMP
- Скретч-ввод
- Пространственная навигация
- Ощутимый пользовательский интерфейс
- Сенсорный пользовательский интерфейс
Заметки
- ^ Интерфейс Reality пользователя (RUI) , в работе Заключительной Основной доклад, озаглавленный «Реконфигурированные Я как основа гуманистического интеллекта», Стив Манн, USENIX-98, Новый Орлеан Июнь 15-19, 1998, Опубликовано в: ATEC '98 Материалы ежегодной конференции USENIX Annual Technical Conference USENIX Association Беркли, Калифорния, США © 1998
- ^ Интеллектуальная обработка изображений, John Wiley and Sons, 2001
- ^ Естественные интерфейсы для музыкального выражения, Стив Манн, Ним, 2007
- ^ Мур, Кристиан (2006-07-15). «Новое сообщество открыто» . Сообщество NUI Group.
- ^ де лос Рейес, август (2008-09-25). «Предсказание прошлого» . Веб-направление Юг 2008 . Сиднейский конференц-центр: веб-направления.
- ^ Вингфилд, Ник (05.01.2010). «Тело в движении: выставка CES для демонстрации Touch Gizmos» . Wall Street Journal.
- ^ Бакстон, Билл (06.01.2010). «CES 2010: NUI с Биллом Бакстоном» . Microsoft Research.
- ^ Храбрый мир NUI
- ^ Бакстон, Билл. «Мультитач системы, которые я знал и любил» . Билл Бакстон.
- ^ «Проект Xbox.com Natal» . Архивировано из оригинала на 2009-07-09 . Проверено 2 августа 2009 .
Рекомендации
- http://blogs.msdn.com/surface/archive/2009/02/25/what-is-nui.aspx
- https://www.amazon.com/Brave-NUI-World-Designing-Interfaces/dp/0123822319/ref=sr_1_1?ie=UTF8&qid=1329478543&sr=8-1 Книга Brave NUI World от создателей NUI от Microsoft Surface