Une interface utilisateur naturelle (NUI) est un système d'interaction homme-machine que l'utilisateur exploite par des actions intuitives liées au comportement humain naturel et quotidien. Une NUI peut être utilisée de nombreuses façons différentes en fonction de son objectif et des besoins de l'utilisateur. Alors que certaines NUI utilisent des dispositifs intermédiaires pour interagir, des NUI plus sophistiquées peuvent être invisibles ou discrètes et disparaître rapidement. Exemples et applications des interfaces utilisateur naturelles.
Les interfaces cerveau-machine lisent les signaux neuronaux et utilisent des programmes pour traduire ces signaux en actions. Les ICB permettent aux personnes paralysées d'utiliser un fauteuil roulant motorisé, un ordinateur ou un membre prothétique par la seule pensée. Lors d'une conférence en 2008, August de los Reyes, de Microsoft, a parlé de la NUI comme de l'étape évolutive suivante de l'informatique par rapport à l'interface utilisateur graphique (GUI), comme la GUI l'était par rapport à l'interface de ligne de commande (CLI).
Les interfaces à écran tactile permettent aux utilisateurs d'interagir avec les commandes et les applications de manière plus intuitive qu'une interface à curseur car elle est plus directe - au lieu de déplacer un curseur pour sélectionner un fichier et de cliquer pour l'ouvrir, par exemple, l'utilisateur touche une représentation graphique du fichier pour l'ouvrir. Les smartphones et les tablettes permettent généralement une saisie tactile. Le toucher est également adapté à des applications hors écran. Microsoft, par exemple, développe une interface tactile appelée Skinput qui permet aux utilisateurs d'interagir avec leur peau en la touchant simplement. Les systèmes de reconnaissance des gestes suivent les mouvements de l'utilisateur et les traduisent en instructions. Les systèmes de jeu de mouvement Nintendo Wii et PlayStation Move fonctionnent grâce à des accéléromètres et des gyroscopes basés sur la manette pour détecter l'inclinaison, la rotation et l'accélération. L'appareil est équipé d'un logiciel et d'une caméra qui peuvent reconnaître des gestes spécifiques et les traduire en actions. Le Kinect de Microsoft est un exemple de capteur de mouvement que Microsoft propose pour la Xbox 360. Il permet d'utiliser les mouvements du corps, les gestes et les commandes vocales. Kinect peut reconnaître la voix et le corps de chaque joueur. Pour interagir avec les ordinateurs, vous pouvez utiliser la reconnaissance des gestes. La reconnaissance vocale permet aux utilisateurs d'interagir avec un système par le biais de commandes vocales. Le système identifie les mots et les phrases parlés et les convertit en un format lisible par la machine pour l'interaction. Les applications de reconnaissance vocale comprennent l'acheminement des appels, la conversion de la parole en texte et l'utilisation d'un ordinateur et d'un téléphone portable en mode mains libres. La reconnaissance vocale est aussi parfois utilisée pour interagir avec des systèmes embarqués. Les utilisateurs peuvent utiliser des interfaces de suivi du regard pour contrôler un système en suivant les mouvements de leurs yeux. Lenovo a dévoilé en mars 2011 le tout premier ordinateur portable à commande oculaire au monde. Le système de Lenovo utilise une source de lumière infrarouge et une caméra pour capturer les reflets. Le logiciel calcule la taille de l'écran à visualiser, puis utilise cette information comme entrée.