Le interfacce uomo-macchina ci permettono di comunicare in maniera semplice ed elegante con la tecnologia. Attualmente ci stiamo affacciando verso ulteriori interfacce di gesture recognition o riconoscimento gesti, touch e riconoscimento vocale, che cambieranno totalmente il nostro modo di interagire con la tecnologia. Intelligenza artificiale e computer a 5 sensi contribuiranno ad un deciso passo per migliorare la tecnologia del prossimo futuro, forse non troppo lontano. I nuovi dispositivi indossabili e smartwatch dovranno far affidamento inevitabilmente a nuove soluzioni di interfacce, evitando qualsiasi contatto fisico con il dispositivo. Queste dovranno migliorare non solo l'interazione con la tecnologia, ma fornire un valido supporto in termini di sicurezza soprattutto per il mercato industriale e automotive. Soprattutto in quest'ultimo mercato, il riconoscimento vocale, gestuale e la tecnica eye-tracking (monitoraggio oculare per individuare casi di sonnolenza), dovrebbero evitare distrazioni alla guida.
Un'interazione senza contatto fisico con la tecnologia, con supporto dell'intelligenza artificiale: un deciso impatto sia in termini sociali sia dal punto di vista lavorativo. Quali saranno i vantaggi e svantaggi di tutto questo, ma soprattutto quale interfaccia potrebbe avere una rapida diffusione ?
Secondo me l’uomo userà il touch (senso tattile) e la vista come fonte principale di interazione. A mio avviso gli altri sensi, nell’interazione uomo macchina, sono secondari. Ad esempio, a cosa potrebbe servire l’olfatto?
Discorso diverso merita l’udito (e conseguentemente la voce). Affinando questa interazione si potrebbero aprire nuovi orizzonti… siri possiamo dire che è un esempio lampante…
E’ un settore della tecnologia molto interessante per gli sviluppi che si possono prevedere in tutti i campi dell’elettronica. Nel settore militare in alcuni paesi sono tutt’ora in corso sperimentazioni relativamente all’utilizzo della Telepatia come mezzo di comunicazione a distanza dei soldati. E’ questa l’interfaccia utente del futuro?
L’argomento Telepatia in ambito militare è stato trattato dal matematico e scrittore Rudy Rucker nel sul libro “La quarta dimensione” edito da Adelphi. Precisamente, nella seconda parte dove si ispira al principio di sincronicità elaborato nel secolo scorso dallo psicanalista Carl Gustav Jung che, in senso metaforico, ereditò tale idea dal suo amico fisico Wolfang Pauli. La sincronicità potrebbe essere correlata ai ben noti fenomeni di entanglement quantistico
E’ indubbio che saremo presto circondati da sensori in grado di capire cosa vogliamo e come lo vogliamo, elettrodomestici ai quali chiedere di ordinare un certo prodotto, movimenti del corpo per gestire qualsiasi cosa, intelligenze artificiali alle quali formulare discorsi fluenti come fossero altri esseri umani, ecc. Lo sviluppo di queste tecnologie è parallelo alla storia dell’elettronica e dell’informatica ma effettivamente, nell’ultimo decennio, si sono visti enormi passi avanti con l’inclusione di queste tecnologie in prodotti consumer, pensiamo solo agli assistenti vocali presenti nei moderni SO.
L’interfaccia che ritengo sarà più utilizzata è sicuramente quella vocale, già adesso ampiamente integrata su molti dispositivi e con la quale potremo svolgere quasi tutta la nostra attività futura. Per contro dovremo stare attenti a cosa diciamo, soprattutto se dopo una imprecazione daremo il comando di inviare la mail. 😀
Smart sensors, realtà virtuale, realtà aumentata, impiego semore più spinto di algoritmi ad elevata complessità computazionale, utlizzo di DSP e FPGA quasi ovunque: penso che in un futuro non troppo lontano assisteremo a un’evoluzione sostanziale dell’interfaccia uomo macchina, con scenari un tempo impensabili. Una tecnologia che personalmente mi affascina molto è quella dei display, sicuramente cambieranno il concetto attuale di dispositivi indossabili e portatili in generale.
Credo che muoversi in un contesto capace di reagire ad ogni nostro vocalizzo o movimento del corpo sarebbe veramente di una utilità straordinaria. Chiudere una porta a distanza muovendo un braccio, chiudere una tv proninciando stop o muovendo il capo; ma non solo, tutto è sotto il nostro comando senza toccare il relativo dispositivo. Veramente magico, tutto il pianeta potrebbe diventarlo. Una mente cibernetica ai limiti tra realtà e fantascenza alla base di tutto questo, capace di tenere sotto controllo tutti i dispositivi del pianeta! E noi immersi in una comodità che ha dell’irreale! Oltre ai sensi potrebbero essere presi in considerazione anche i nostri sentimenti, quindi sensori per interfacciarli con il dispositivo relativo, e q
e qui le varianti si perdono.
Un’interazione senza contatto fisico con la tecnologia, con supporto dell’intelligenza artificiale?
Dal mio punto di vista “user” penso che sia fantastico, divertente e una grande comodità. Come “maker” ritengo che possa aprire nuove frontiere allo sviluppo tecnologico, come realizzare dispositivi che possano aiutare persone con un deficit motorio. Invece, dal mio punto di vista “morale”, ritengo che troppa comodità porti a fossilizzare corpo e mente. Pensieri contraddittori tra loro ma inevitabili con il progresso tecnologico in fase di crescita esponenziale. Ritornando al tema iniziale, penso che tra i vari input conosciuti solo il movimento dell’occhio, o meglio eye-tracking, avrà il maggior successo perché è il comando più rapido al livello cognitivo. Unico problema sta nel creare una AI capace d’interpretare il comando con largo anticipo. Questa tecnologia si può migliorare implementando anche le gesture facciali.
Una delle cose più fantastiche della scienza in primis e della tecnologia poi è la capacità di scatenare l’immaginazione di chi vi si accosta e l’argomento di questo articolo non è da meno.
Potremmo fare le ipotesi più fantascientifiche e le più svariate considerazioni tecnologiche, pratiche ed etiche a queste associate, ma penso che qualunque nuova tecnologia d’interazione uomo-macchina che verrà, sarà sempre per l’applicazione che verrà, coerentemente a quest’ultima. Qualunque interfaccia dipenderà sempre dall’applicazione per cui è utilizzata e quindi le applicazioni che già conosciamo ed usiamo difficilmente cambieranno interfaccia. Forse tra un paio d’anni ci sarà in commercio una versione dell’Oculus capace di tracciare il movimento degli occhi che verrà usata per giochi fantastici e futuristici ma non sostituirà mai il joypad per giocare a Super Mario. Su questo punto potrei fare decine di esempi già visti: la chiamata vocale esiste da un decennio, eppure pochi dicono “Siri, chiama Giovanni”, preferiscono aprire la rubrica e cercare Giovanni; ci sono molte interfacce utili e funzionanti, eppure è quasi impossibile togliere ad un programmatore la sua tastiera ; il touch screen è collaudato ed economico, eppure in molte catene di montaggio o in officina si continua ad usare la pulsantiera ect… Concludendo, quando creeremo l’applicazione, troveremo l’interfaccia che stavamo cercando.
Ci sono già molte applicazioni in cui le “gesture” vengono catturate da sistemi dotati principalmente di telecamere. In questi sistemi, la parte più complessa sono gli algoritmi di processing delle immagini in quanto la tecnologia necessaria è disponibile, è semplice e alla portata di tutti. L’individuazione di un oggetto (o di un essere umano) all’interno di un contesto presenta un problema di rumore molto elevato causato dall’ambiente circostante. Aggiungiamo a questo la necessità di captare anche i suoi movimenti e comprendiamo che questo risulta ancora più complesso, Ma tutto questo non è lontano o facente parte solo del mondo cinematografico. Microsoft, con la sua periferica Kinect, ci ha fatto vedere che è possibile (ovviamente ancora con alcuni limiti) avere un’individuazione delle gesture senza ulteriori sensori. Il futuro è già ora! Nel prossimo biennio ci saranno passi da gigante e ne vedremo delle belle, anzi forse ne faremo delle belle (per i makers e gli ingegneri!).
Io penso che il futuro in questo caso lo sceglieranno gli utenti.
In base al prodotto la UX relativa sarà fondamentale per poi proseguire nello sviluppo della tecnologia.
Per smartphone e tablet sicuramente il touch, mentre per la tv e la domotica il gesture potrebbe avere ampia diffusione. Gli headset per il controllo telepatico, invece, ho paura che prendano piede nell’ambito lavorativo, con tutti i pro e i contro del caso…. vedremo!
Non mi piace dirlo, ma penso che il futuro sarà dei cyborg e il confine tra uomini e macchine diventerà sempre più sottile, con elementi artificiali, come protesi meccaniche ed elettroniche, a volte innestate sul corpo umano, con cui si interagirà con il mondo digitale all’interno del quale si sarà immersi,.
Mi rifaccio a questo punto dell’articolo:
(monitoraggio oculare per individuare casi di sonnolenza)!
Ecco una realtà che merita di essere perseguita; si sa benissimo, che chi passa molle ore alla guida spesso di notte, va incontro a queste problematiche con finali devastanti. Quattro morti porta questo deficit. Solo per questo meriterebbe grande interesse.