Помаши компьютеру рукой

Естественные интерфейсы меняют способы взаимодействия с техникой.

Microsoft Kinect

За последний год в мире IT произошло несколько знаковых событий, на первый взгляд не связанных между собой, но совершенно ясно обозначивших новый путь в развитии как персональных компьютеров, так и способов взаимодействия с ними. Речь идет о появлении линейки планшетов iPad, выпущенной Apple, с одной стороны, и создании ее главным конкурентом Microsoft контроллера Kinect для игровых приставок Xbox 360 — с другой.

Высокие продажи компьютерной техники до недавнего времени объяснялись техническими характеристиками — мощностью процессора, количеством оперативной и постоянной памяти, разрешением экрана или еще чем-то из той же серии. Словом, для описания продукта использовали цифры, цифры и еще раз цифры, характеризующие его техническую начинку. С точки зрения этих цифр, планшет iPad практически ни в чем не превосходит своих конкурентов (к примеру, Samsung Galaxy Tab).

Так почему же миллионы пользователей покупали и продолжают покупать iPad? Ответом могут быть слова самого Стива Джобса, основателя Apple и автора этого проекта. В начале месяца на презентации iPad 2 он заявил о наступлении посткомпьютерной эры, когда мощность компьютера уже не играет ключевой роли, а определяющими становятся концепции гуманитарного характера — дизайн, способы общения с системой, своеобразный «психологический портрет» продукта. По мнению Джобса, современный мобильный компьютер — продукт соединения гуманитарного и технического подхода с акцентом в сторону первого.

Нужно признать, что IT-сообщество довольно сдержанно отреагировало на такое заявление. К примеру, основатель Microsoft Билл Гейтс заявил на шоу Лари Кинга: «Мы пытаемся создать продукт, который вы хотели бы взять на деловую встречу, чтобы делать записи и редактировать… iPad не является таковым…». Но популярность «яблочного» планшета можно рассматривать как подтверждение правоты его создателя. Пользователи платят деньги не за процессор, сенсорный экран или видеокамеру. Они приобретают «домашнего любимца» с очень характерным интерфейсом, который отображает стремление разработчиков доставлять пользователю удовольствие от работы с ним.

Для лучшего понимания важности способа общения пользователя с компьютером вернемся на несколько десятилетий назад. Первые «персоналки» оснащались только клавиатурой — это был единственный способ управлять машиной. Что сильно ограничивало круг пользователей, ведь для работы было необходимо прочитать обширную документа­цию и помнить десятки команд и ключей для управления системой. Создание компьютерной мыши (изобретатель Douglas Engelbart, 1964 г.) и ее массовый выпуск в комплекте с ПК (фирма Xerox 8010 Star Information System, 1981 г.) значительно облегчили этот процесс. Использование мыши в соединении с появившимися графическими интерфейсами для операционных систем беспрецедентно расширило круг пользователей ПК. Работа по управлению операционной системой, файловой структурой и приложениями могла теперь выполняться за счет интуитивно-понятных приемов — выставлением галочек в опциях и перетаскиванием по рабочему столу папок и файлов, словом так, как это делалось с документами в реальном мире. С тех пор для ПК клавиатура и мышь почти на три десятилетия стали практически безальтернативным интерфейсом взаимодействия пользователя и машины.

Одним из главных изобретений, открывших новые возможности для приближения способа взаимодействия между ПК и пользователем к обычному, «человеческому» (т.н. естественному пользовательскому интерфейсу, англ. NUI – natural user interface), было создание дисплеев, способных реагировать на прикосновения. Они по­явились в 70-х годах. Пионерской работой можно считать выпуск фирмой Control Data Corporation сенсорного экрана в 1972-м. Вокруг экрана располагались инфракрасные датчики, регистрировавшие приближение к нему. Экраны, позволявшие регистрировать прикосновения не только в одной точке (multi-touch), появились в начале 1980-х годов, первой была разработка Университета Торонто (Input Research Group).

Прошло более четверти века, прежде чем multi-touch-технология получила широкое распространение — выпуск первых iPhone (фирма Apple, 2007 г.) сопровождался рекламными заявлениями о приоритете Apple в области развития технологии multi-touch.

Такое заявление не вполне соответствовало действительности, так как еще в 2006 году сотрудник университета Нью-Йорка продемонстрировал, каким образом можно обрабатывать множественные прикосновения к экрану. Это было завораживающее зрелище — от имитации скульптурной лепки из вязкого материала, который реагировал на прикосновение пальцев так же, как вела бы себя глина в руках скульптора, до создания художественного векторного рисунка. Кроме подобных впечатляющих образов, был продемонстрирован совершенно новый подход к организации интерфейса пользователя.

Рабочую область теперь легко масштабировать. К примеру, пользователь может «сдвигать» рабочий стол во всех измерениях — как на плоскости, так и в пространстве (увеличением или уменьшением масштаба видимой области). Точка на экране при приближении оказывалась страницей документа, на которой можно было прочитать текст. Сдвиг в плоскости осуществлялся вполне естественным движением – прикосновением пальцев к экрану и «протаскиванием» его влево/вправо или вверх/вниз. Масштабирование осуществлялось не менее естественным движением – пальцы рук касались экрана и скользили навстречу друг другу («сжимая» пространство) – рабочая область «отдалялась», открывая большее пространство, движение в обратном направлении приближало область видимости, увеличивая объекты на ней.

Как известно, современные планшеты поддерживают акселерометры (в том числе и пространственные), гироскопы, барометры, датчики освещения и даже геомагнитные датчики. Эти устройства, таким образом, регистрируют встряхивания, ускорение, ориентацию в пространстве — словом, реагируют на физические раздражители подобно живым существам! Налицо перенос акцента с цифровой оценки продукта на его «человечность», когда быстродействие отступает на второй план в пользу дизайна и интерфейса взаимодействия с пользователем.

Рассмотрим и другой подход к реализации естественного пользовательского интерфейса. В 2009 году в этой области сказала свое слово и Microsoft. Компания по рекламе и продвижению технологий Razorfish тогда использовала приложение DaVinci для демонстрации возможностей Microsoft Surface (сенсорного экрана с поддержкой произвольного количества касаний). Касаниями пальцев за несколько секунд создавалась примитивная игрушка, демонстрировалось взаимодействие между виртуальными предметами (нарисованными руками демонстраторов) и физическими объектами (расположенными на экране фишками).

Следующий шаг напрашивался сам собой — создание бесконтактного интерфейса взаимодействия с компьютером. Он был реализован Microsoft в технологии Kinect. Предыдущий эксперимент повторен почти в точности, за исключением одного: демонстратор не прикасался к экрану, его движения фиксировал Kinect — и как в фантастическом фильме, в ответ на жесты человека появлялись фигуры, которые вели себя то как предметы в гравитационном поле Земли, то как заряженные частицы в невесомости, сталкиваясь, притягиваясь или следуя за движением рук их создателя.

Появление технологии Kinect послужило началом лавинообразному процессу разработки сторонними организациями (и отдельными энтузиастами) новых путей «обучения» машины умению реагировать на движения человека, его жесты, распознавать образы и другим вещам такого рода. Уже существует пилотная версия программного обеспечения для управления стандартным интерфейсом программ с помощью жестов рук. Такой подход к взаимодействию с системой называют жестовым интерфейсом (разработка Массачусетсского технологического института).

Принцип работы контроллера Kinect достаточно прост: «база» излучает инфракрасные лучи, которые, отражаясь от объекта, регистрируются приемником, и затем по отраженному сигналу строится трехмерная модель сцены. Вооружившись камерой для ночной съемки, можно увидеть тысячи точек, проецируемых источником, среди которых более ярким свечением выделяются контрольные точки. Главный конкурент Kinect — устройство Sony Move — технически менее совершенно и вынужденно использует специальный контроллер, который необходимо держать в руке, чтобы система могла распознать движение игрока.

Наступает новая эпоха в разработке приложений. Если ранее все события, связанные, например, с мышкой, были строго фиксированы (например, клик, двойной клик, перемещение), то теперь перед разработчиками открывается практически неограниченная область событий — от прикосновения в одной точке до движения произвольного количества объектов. Можно в четыре руки «лепить» на плоскости скульптуру, рисовать сюрреалистические пейзажи или щелчком пальцев удалять каталоги.

Более того, соединение технологии multi-touch с технологией бесконтактного взаимодействия, представленное Kinect, открывает возможность программировать реакцию ПК на жесты и мимику пользователя. На днях Microsoft планирует выпустить сервис Avatar Kinect — систему, способную не только отображать движения пользователя в его виртуальном двойнике, но и распознавать лица, более того – эмоции!

Суммируя факты, можно констатировать стремительное приближение способа общения пользователя и машины к человеческим стандартам, которое позволит интуитивно выполнять операции, для которых ранее требовалась профессиональная компьютерная подготовка и глубокое знание специализированных продуктов.

Трудно взять на себя смелость предположить, к чему приведет дальнейшее развитие технологии. Вполне возможно, что в скором будущем планшеты смогут жаловаться хозяину на мигрень перед грозой, мурлыкать в ответ на поглаживание, а вечером требовать колыбельную. В любом случае неопровержим факт начала принципиально иной эпохи — эпохи главенства человеческого начала в построении интерфейса взаимодействия с компьютером.

Вам может также понравиться...