Dalla GUI alla NUI. Il futuro della Human Machine Interaction.

Natural User Interface - Iron Man

La sempre più pervasiva presenza di dispositivi informatici ed elettronici nelle nostre case, auto, luoghi di lavoro, commercio, turismo e praticamente in ogni area delle attività umane, richiede una progettazione che sappia tenere conto dei possibili contesti d'uso e degli obiettivi degli utenti. La tecnologia, perciò, deve essere sempre più interattiva e in grado di garantire una comunicazione efficace tra gli utenti e i diversi devices. Vediamo, allora, come si sia evoluta negli anni l'interazione tra uomo e computer.

L' Interazione Uomo-Computer (in Inglese HCI - Human Computer Interaction), anche detta Interazione Uomo-Macchina (traduzione di HMI – Human Machine Interaction), è lo studio dell'interazione tra le persone (utenti) ed i computer per la progettazione e lo sviluppo di sistemi interattivi che facilitino le attività umane secondo i seguenti principi di usabilità:  efficacia, efficienza, sicurezza, facilità di apprendimento, ricordo delle modalità d'uso e soddisfazione con cui gli utenti raggiungono determinati obiettivi in particolari contesti (utilità).

Nel dettaglio:

  • un sistema è efficace se consente di portare a termine un compito;
  • l'efficienza fa riferimento alla possibilità di portare a termine un compito impiegando il minor tempo possibile e con il minor uso di risorse, sia mentali che fisiche. Un dispositivo efficiente rende l'utilizzatore più produttivo;
  • la soddisfazione viene raggiunta dallo specifico utente quando porta a termine un compito e questo porta anche a valutare l'utilità del sistema;
  • considerando che gli incidenti dovuti all'interazione tra uomo e macchina sono sempre riconducibili ad un errore umano, l'HMI mira a ridurre il GAP tra linguaggio macchina e linguaggio naturale in modo da aumentare l "empatia" tra uomo e computer e aumentare, quindi, la sicurezza generale del sistema;
  • la facilità di apprendimento riduce il bisogno di addestramento da parte dell'utilizzatore (meno costi);
  • modalità d'uso semplici e facili da ricordare riducono il bisogno di supporto agli utenti;

Un ulteriore elemento caratteristico dell'HMI è il concetto di accessibilità.
Un sistema tecnologico è accessibile se può essere usato da tutti. Accedere all'informazione tuttavia non basta, il sistema deve poi essere anche utilizzabile: l'accessibilità è perciò un prerequisito all'usabilità (un sistema non si può usare se non è accessibile).
E' importante notare che l'usabilità non è una caratteristica intrinseca di un artefatto ma dipende da coloro che utilizzano l'artefatto e dal contesto in cui viene utilizzato.

Alcuni studi dimostrano che gli utenti sono più attivi quando interagiscono con interfacce che risultino più piacevoli dal punto di vista estetico. L'aspetto emotivo è quindi tutt'altro che estraneo nella valutazione dell'aspetto di usabilità (si parla infatti di usabilità “apparente”, soggettiva)

La disciplina che si occupa della progettazione dell'interazione che avviene tra esseri umani e sistemi meccanici e informatici, ponendo un occhio di riguardo verso il lato estetico e della “usabilità apparente”, è chiamata Interaction Design, spesso abbreviato IxD, disciplina che appartiene all'ambito di ricerca del Design e dell'HMI. Come molti altri campi del Design l' Interaction Design ha anche un interesse per la forma, ma il suo obiettivo principale è il comportamento.

L'iterazione è una della caratteristiche principali del processo di Interaction Design: i nuovi dispositivi proposti vengono valutati attraverso i prototipi e i risultati della valutazione tornano a influenzarne lo sviluppo degli stessi. Come è ormai noto, Arduino prese avvio nel 2005 proprio con lo scopo di rendere disponibile agli studenti dell' Interaction Design Institute di Ivrea un dispositivo per il controllo dei loro progetti che fosse più economico e più semplice rispetto ai sistemi di prototipazione allora disponibili.

Dovendo trattare dell’interazione tra due sistemi molto diversi e complessi, quello umano e quello informatico, l'HMI è per definizione multidisciplinare e copre aspetti di informatica, elettronica, scienza dell'informazione, intelligenza artificiale, psicologia, scienze cognitive, ergonomia, design, ed altre materie.

Uno dei principali campi di intervento dell'IxD e dell'HMI in generale, è la progettazione delle interfacce, attraverso cui avviene l'interazione uomo-macchina. L'ingegnere/scrittore Roberto Vacca, nel suo "Consigli a un giovane manager", definisce l'interfaccia (o interface) come la connessione fra due diversi sistemi tecnologici, due macchine, due regioni o domini di pertinenza di discipline o amministrazioni diverse. Un raccordo autostradale interfaccia l' autostrada e la rete viaria urbana. Un programma di conversione interfaccia una codificazione di computer con un' altra. Una stazione dovrebbe interfacciare ferrovia e città.

L'interfaccia, dunque, rappresenta quel componente, fisico o logico, che permette a due o più sistemi (elettronici o non) di poter comunicare ed interagire tra loro, cosa che spesso non è possibile a causa della diversa natura o realizzazione dei sistemi stessi. Interfacciare vuol dire quindi collegare due o più dispositivi eterogenei, in modo da poter permettere uno scambio di informazioni, seguendo un formato standard (“protocollo”) che consenta lo scambio di dati.

L'interfaccia rappresenta lo spazio in cui si collegano gli elementi che costituiscono la comunicazione mediata, ovvero:

  • il comunicante e il suo interlocutore;
  • lo scopo dell'azione;
  • l'artefatto utilizzato per comunicare.

 

Evoluzione delle Human-Machine Interfaces

 

 

L'interfaccia a riga di comando o interfaccia a linea di comando, anche conosciuta come CLI (Command Line Interface) è una tipologia di interfaccia utente utilizzata in ambito informatico e caratterizzata da un'interazione di tipo testuale tra utente ed elaboratore: nella CLI, gli utenti devono utilizzare un mezzo artificiale per immettere i dati, la tastiera, e usare una serie di input in codice, di natura esclusivamente alfanumerica, con una sintassi rigorosa, ricevendo i dati in uscita tramite una sequenza di linee di testo scorrevoli sul video.

 

Basandosi sulla riga di testo, la CLI si può considerare monodimensionale. Inoltre, l'artificiosità del linguaggio, sia nella forma sintattica che semantica, la rende una Human-Machine Interface ben lontana dal “naturale”, molto vicina alla natura della macchina e molto lontana dalla natura dell’uomo. Nella figura sottostante si può vedere un esempio di CLI ( il sito di Elettronica Open Source visualizzato con Lynx, un browser web testuale utilizzabile su terminali con interfaccia a riga di comando.)

 

 

In seguito, grazie all’introduzione dei display grafici e dei dispositivi di puntamento come i mouse, gli utenti potevano più facilmente interagire con il sistema attraverso una manipolazione diretta (direct manipulation) degli oggetti digitali, i quali vengono rappresentati in maniera esplicita, in modo che l'utente possa agire su di essi allo stesso modo con cui interagisce con gli oggetti fisici.

Come si può notare, tale tipo di interfaccia, detta GUI – Graphical User Interface, è di più facile utilizzo, anche per i meno esperti di computer, rispetto alla CLI in quanto:

  •  la comunicazione verso il sistema è bidimensionale e consiste nel selezionare tasti virtuali e icone e di utilizzare metafore come le "finestre" o le "cartelle" per facilitare l'organizzazione dei dati con uso limitato di testo da tastiera (Nell'interazione uomo-macchina, WIMP, acronimo dell'inglese Window, Icon, Menu e Pointing device, in italiano "finestra, icona, menu e dispositivo di puntamento", denota uno stile di interazione che usa tali elementi)
  • la comunicazione verso l’utente è di natura mista grafica/testo completamente contenuta nella dimensione di visualizzazione del display.

Sebbene l'introduzione della manipolazione diretta consenta di interagire con l'interfaccia senza dover imparare nuovi comandi, ma semplicemente adattando gli schemi percettivo/motori che abbiamo già appreso nella vita quotidiana (vedi per esempio l'azione del “drag&drop”), anche l’interfaccia GUI non è naturale, in quanto basata su meccanismi di comunicazione (puntare e selezionare) non tipici della comunicazione umana.

All'inizio del terzo millennio cominciò a diffondersi un rivoluzionario tipo di interfaccia: il touchscreen, o schermo tattile, il quale è un dispositivo hardware che consente all'utente di interagire con un computer semplicemente toccando lo schermo con le dita. Una ulteriore evoluzione è rappresentata dal multi-touch, sensibile al tocco in più punti diversi della superficie contemporaneamente.

 

Anche la tecnologia touchscreeen, così come la tastiera e il mouse, è una interfaccia "innaturale" in quanto il tocco con le dita, anche se di natura gestuale, non è un modo naturale di comunicare da parte dell’uomo ma richiede l’apprendimento dell’utilizzo di un nuovo dispositivo.

La comunicazione uomo-computer, invece, mira ad essere sempre più simile alla comunicazione tra esseri umani e conduce all'affermazione del paradigma dell' interazione naturale che garantisce usabilità e accessibilità in quanto estremamente immediata e spontanea.

Il passo successivo nell'evoluzione dell'HMI, dunque, è l’interfaccia NUI – Natural User Interface, termine con cui designer e sviluppatori di interfacce fanno riferimento ad una interfaccia utente che è completamente “invisibile” all’utilizzatore, in quanto basata su meccanismi di comunicazione naturali tipici degli esseri umani. Ciò significa che l’utente non deve utilizzare dispositivi di comunicazione artificiosi come la tastiera o il mouse, ma può comunicare direttamente con mezzi naturali come la voce, i gesti, i movimenti del corpo, la contrazione muscolare, ecc.

La facilità di apprendimento,il ricordo delle modalità d'uso e la soddisfazione degli utenti sono i principali bisogni che la NUI tenta di soddisfare. L’apprendimento da parte dell’utilizzatore di tale interfaccia, infatti, è solo relativo al linguaggio di comunicazione e non al mezzo di comunicazione, che è così veloce da imparare che spesso viene usato l’aggettivo “intuitivo” per descrivere come gli utenti interagiscono con esso.

Un livello di interfaccia naturale abbastanza completo può essere raggiunto attraverso un sistema che combina voce e gesti dell'utente, sfruttando diverse tecnologie emergenti, come lo speech processing, il gesture processing e lo space sensing. Kinect è un esempio di interfaccia NUI multimodale che integra queste tecnologie, la quale permette di interagire con il sistema semplicemente utilizzando i movimenti del corpo e la voce. Sebbene tale dispositivo sia nato come semplice strumento per il gaming (originariamente pensato per Xbox 360), il fermento maturato attorno alla periferica non ha lasciato indifferente la Microsoft che ha rilasciato e distribuito gratuitamente (!) il Software Developer Kit affinché chiunque possa operare su Kinect trasformandolo in un device dagli usi più disparati. L'uscita di Kinect,infatti, ha provocato un grande movimento nella comunità di sviluppo libero di software per computer e decine di "hacker" e "maker" si sono messi al lavoro sul "reverse engineering" sulla periferica, allo scopo di trovare nuove modalità di utilizzo di un dispositivo che si configura come il primo di una serie di sistemi che potrebbe davvero portarci ad un futuro alla Minority Report.

 

Bioelectrical NUI

Come già ribadito più volte, l’obiettivo dell'interfaccia utente naturale è di eliminare dispositivi non naturali come la tastiera o il mouse nella comunicazione tra uomo e macchina. A questo proposito si possono usare altre manifestazioni fisiologiche dell’utilizzatore, come l’attività elettrica muscolare, l’attività elettrica cerebrale, l’attività elettrica cardiaca, ecc.

Un'interessante applicazione di questo tipo di NUI è stata sperimentata da Microsoft in collaborazione con l’Università di Washington e l’Università di Toronto per realizzare la “muscle-computer interface”, che consente di produrre input per il computer attraverso i gesti e i relativi segnali elettrici generati dalle contrazioni dei muscoli del braccio, delle mani e delle dita. Questi segnali vengono prelevati da degli elettrodi, eleborati a livello hardware da un front-end analogico, convertiti in segnali digitali e  inviati ad un  computer su cui un software traduce i differenti pattern relativi a particolari gesti e movimenti del braccio in comandi differenti. In questo modo l’utente può interagire con gli oggetti digitali in maniera naturale, così come interagirebbe con un oggetto fisico.

Le possibilità applicative di questa interfaccia naturale sono praticamente illimitate: si passa dalla domotica (comandare interruttori, termostati, stereo, accessi) al gaming (sia con applicazioni software che hardware) ad applicazioni nel campo medico e militare. Esempi significativi si possono trovare in questi video:

Natural User Interfaces with Physiological Sensins - Microsoft Research
Open Arms – Progetto Brasiliano basato su un EMG shield per Arduino
MYO - Wearable Gesture Control from Thalmic Labs - Prima NUI commerciale basata su EMG

 

Brain Computer Interface e Super-Natural User Interface

Lo stato fisiologico, manifestato attraverso i segnali bioelettrici, porta molte delle informazioni con cui la persona comunica (per esempio le emozioni).

Le interfacce cervello-computer (brain-computer interfaces) consentono di interfacciare l’utilizzatore al computer attraverso la sua attività cerebrale. Questo tipo di interfaccia prevede il collocamento di una serie di elettrodi sullo scalpo del soggetto per rilevare l’attività bioelettrica del cervello, prevalentemente a livello della corteccia cerebrale.

Per essere precisi, le Brain-computer Interface possono essere considerate delle "Super-Natural User Interfaces". In effetti non rientra proprio nella quotidianità “muovere” gli oggetti con il pensiero, cosa che invece si può fare attraverso questa tecnologia.

Esempi significativi sono rappresentati nei seguenti video:

Inria – OpenVIBE
Son of Nor - Cast Magic Using Your Brain (with Emotiv EPOC)
Mind Control Device Demonstration - Tan Le

N.B. La Brain-computer Interface è ancora una bleeding edge technology e i video sopraelencati sono da considerarsi delle Demo. Allo stato attuale, infatti, è abbastanza difficile andare oltre il semplice rilevamento dell' eye-blinks se si utilizzano solo dispositivi economici. Se ne discuteva nei commenti a questo articolo su un'applicazione BCI per Arduino.

 

Il futuro della NUI

La tecnologia sta diventando sempre più naturale e intuitiva e la curva di apprendimento per interagire con i computer è sempre meno una barriera grazie ai modi più naturali di interazione. Durante la presentazione della conferenza “Predicting the Past” del 2008, August de Los Reyes della Microsoft ha descritto la NUI come “la prossima fase evolutiva dopo il passaggio dall'interfaccia a riga di comando (CLI) all’interfaccia grafica utente (GUI)”.

Un recente sondaggio condotto su circa 6.000 persone in sei paesi permette di vedere come si stanno sviluppando le Interfacce Naturali: nonostante solo la metà circa degli intervistati avesse familiarità con queste tecnologie, quasi il 90 per cento del campione crede che rappresentano la strada per il  futuro. Inoltre, il 70 per cento degli intervistati è convinto che le Interfacce Naturali potranno essere molto più di una grande piattaforma per il gaming e l'intrattenimento, portando enormi opportunità per affrontare i problemi sociali come la sanità ( fornendo un maggiore accesso per i disabili ) e aiutando nei campi cruciali per la società civile come l’istruzione, i trasporti,il commercio, le telecomunicazioni, la produttività sul posto di lavoro e altri.

Come questo sentimento sia ben radicato nell'immaginario collettivo è evidente anche dall'analisi della letteratura fantascientifica in relazione alle interfacce utente futuristiche. Gli appassionati di Sci-fi potranno sbizzarrirsi a trovare riferimenti  interessanti dai vari film, telefilm e romanzi. Io comincio con consigliarvi i recenti Prometheus, Oblivion e EVA (dove una NUI viene utilizzata insieme ad un linguaggio di programmazione ad alto livello per la progettazione di profili di intelligenza artificiale per robot umanoidi … film consigliatissimo !)

Quali altri film con Interfacce futuristiche vi vengono in mente?
Che ruolo pensiate possa avere il mondo dell'open source nello sviluppo delle NUI?

 

Link e riferimenti:

Psicologia & Interazione man-machine-man

The Official Microsoft Blog

FreeTouch - Impossibile non toccare

 

Quello che hai appena letto è un Articolo Premium reso disponibile affinché potessi valutare la qualità dei nostri contenuti!

 

Gli Articoli Tecnici Premium sono infatti riservati agli abbonati e vengono raccolti mensilmente nella nostra rivista digitale EOS-Book in PDF, ePub e mobi.
volantino eos-book1
Vorresti accedere a tutti gli altri Articoli Premium e fare il download degli EOS-Book? Allora valuta la possibilità di sottoscrivere un abbonamento a partire da € 2,95!
Scopri di più

15 Comments

  1. Emanuele Emanuele 1 agosto 2013
  2. illupo89 1 agosto 2013
  3. illupo89 1 agosto 2013
  4. alex272 alex272 1 agosto 2013
  5. Piero Boccadoro Piero Boccadoro 1 agosto 2013
  6. alex272 alex272 1 agosto 2013
  7. Emanuele Emanuele 1 agosto 2013
  8. Luigi Francesco Cerfeda 1 agosto 2013
  9. Piero Boccadoro Piero Boccadoro 1 agosto 2013
  10. Luigi Francesco Cerfeda 1 agosto 2013
  11. IvanScordato Ivan Scordato 1 agosto 2013
  12. Luigi Francesco Cerfeda 1 agosto 2013
  13. slovati slovati 3 agosto 2013
  14. Luigi Francesco Cerfeda 24 agosto 2013

Leave a Reply