Natural user interface (NUI)

Uma interface natural de utilizador (NUI) é um sistema para interacção humano-computador que o utilizador opera através de acções intuitivas relacionadas com o comportamento humano natural e quotidiano. 

Uma NUI pode ser operada de várias formas diferentes, dependendo do objectivo e dos requisitos do utilizador. Alguns NUIs dependem de dispositivos intermediários para interação, mas NUIs mais avançados são invisíveis para o usuário ou tão discretos que rapidamente parecem invisíveis. 

>>b>alguns exemplos e aplicações de interfaces de usuário naturais:

Interfaces de tela de toque permitem aos usuários interagir com controles e aplicações de forma mais intuitiva do que uma interface baseada em cursor porque é mais direta - ao invés de mover um cursor para selecionar um arquivo e clicar para abri-lo, por exemplo, o usuário toca em uma representação gráfica do arquivo para abri-lo. Smartphones e tablets normalmente permitem a entrada por toque. O toque também está sendo adaptado para aplicações sem ecrã. Por exemplo, a Microsoft está trabalhando em uma interface de toque chamada "skinput" que permite aos usuários interagir tocando sua própria skin.

Sistemas de reconhecimento de gestos rastreiam os movimentos do usuário e traduzem esses movimentos para instruções. Os sistemas de jogo Nintendo Wii e PlayStation Move Motion funcionam através de acelerómetros e giroscópios baseados em comandos para detectar a inclinação, rotação e aceleração. Um tipo mais intuitivo de NUI é equipado com uma câmera e software no dispositivo que reconhece gestos específicos e os traduz para ações. O Kinect da Microsoft, por exemplo, é um sensor de movimento para a consola de jogos Xbox 360 que permite aos utilizadores interagir através de movimentos corporais, gestos e comandos falados. O Kinect reconhece o corpo e as vozes de cada jogador. O reconhecimento de gestos também pode ser usado para interagir com computadores.

O reconhecimento de voz permite aos usuários interagir com um sistema através de comandos falados. O sistema identifica palavras e frases faladas e converte-as para um formato legível por máquina para interação. Os aplicativos de reconhecimento de voz incluem o roteamento de chamadas, a operação de fala para texto e mãos livres do computador e do telefone celular.  O reconhecimento de voz também é às vezes usado para interagir com sistemas incorporados.

Interfaces de rastreamento de olhos permitem aos usuários guiar um sistema através de movimentos oculares. Em março de 2011, a Lenovo anunciou que havia produzido o primeiro laptop com controle ocular. O sistema Lenovo combina uma fonte de luz infravermelha com uma câmera para capturar brilhos reflexivos dos olhos do usuário. O software calcula a área da tela sendo olhada e usa essa informação para a entrada.

Interfaces cérebro-máquina lêem sinais neurais e usam programas para traduzir esses sinais em ação. BCI can make it possible for someone who is paralyzed to operate a computer, motorized wheelchair or prosthetic limb through thought alone.

Speaking at a 2008 conference, Microsoft’s August de los Reyes spoke of the NUI as the next evolutionary stage in computing from the graphical user interface (GUI), as the GUI was from the command-line interface (CLI).

 

See also: usability, pervasive computing, smart home

 

Continue reading about natural user interfaces:

Wikipedia on natural user interfaces

Natural User Interfaces: Voice, Touch and Beyond

Lenovo's Laptops Are First to Have Eye-Control Ability

Defining the natural user interface