Dì addio a mouse e tastiera, nuove interfacce utente per ridefinire l'umanità: il futuro dei computer P1

CREDITO IMMAGINE: Corsa quantistica

Dì addio a mouse e tastiera, nuove interfacce utente per ridefinire l'umanità: il futuro dei computer P1

    In primo luogo, si trattava di schede perforate; poi è stato l'iconico mouse e tastiera. Gli strumenti e i sistemi che utilizziamo per interagire con i computer sono ciò che ci consente di controllare e costruire il mondo che ci circonda in modi inimmaginabili per i nostri antenati. Abbiamo fatto molta strada per esserne sicuri, ma quando si tratta del campo dell'interfaccia utente (UI, il mezzo attraverso il quale interagiamo con i sistemi informatici), non abbiamo ancora visto nulla.

    Alcuni potrebbero dire che è strano iniziare la nostra serie Future of Computers con un capitolo sull'interfaccia utente, ma è il modo in cui utilizziamo i computer che darà un significato alle innovazioni che esploreremo nel resto di questa serie.

    Ogni volta che l'umanità ha inventato una nuova forma di comunicazione, sia essa la parola, la parola scritta, la stampa, il telefono, Internet, la nostra società collettiva è sbocciata con nuove idee, nuove forme di comunità e industrie completamente nuove. Il prossimo decennio vedrà la prossima evoluzione, il prossimo salto quantico nella comunicazione e nell'interconnettività, interamente intermediato da una gamma di future interfacce per computer... e potrebbe semplicemente rimodellare cosa significa essere umani.

    Qual è l'interfaccia utente "buona", comunque?

    L'era di colpire, pizzicare e scorrere i computer per fargli fare ciò che volevamo è iniziata più di un decennio fa. Per molti, è iniziato con l'iPod. Laddove una volta eravamo abituati a fare clic, digitare e premere contro pulsanti robusti per comunicare le nostre volontà alle macchine, l'iPod ha reso popolare il concetto di scorrere a sinistra oa destra su un cerchio per selezionare la musica che si desidera ascoltare.

    Gli smartphone touchscreen sono entrati nel mercato poco dopo, introducendo una serie di altri comandi tattili come il poke (per simulare la pressione di un pulsante), il pinch (per ingrandire e rimpicciolire), premere, tenere premuto e trascinare. Questi comandi tattili hanno guadagnato rapidamente popolarità tra il pubblico per una serie di motivi: erano nuovi. Tutti i ragazzi fighi (famosi) lo stavano facendo. La tecnologia touchscreen è diventata economica e tradizionale. Ma soprattutto, i movimenti sembravano intuitivi, naturali.

    Ecco cos'è una buona interfaccia utente del computer: creare modi più naturali per interagire con software e dispositivi. E questo è il principio fondamentale che guiderà i futuri dispositivi dell'interfaccia utente che stai per conoscere.

    Colpire, pizzicare e strofinare l'aria

    A partire dal 2018, gli smartphone hanno sostituito i telefoni cellulari standard in gran parte del mondo sviluppato. Ciò significa che gran parte del mondo ha ora familiarità con i vari comandi tattili menzionati sopra. Attraverso app e giochi, gli utenti di smartphone hanno appreso una grande varietà di abilità astratte per controllare i relativi supercomputer che si trovano nelle loro tasche. 

    Sono queste competenze che prepareranno i consumatori per la prossima ondata di dispositivi, dispositivi che ci consentiranno di fondere più facilmente il mondo digitale con i nostri ambienti del mondo reale. Diamo quindi un'occhiata ad alcuni degli strumenti che utilizzeremo per navigare nel nostro mondo futuro.

    Controllo dei gesti all'aperto. A partire dal 2018, siamo ancora nella micro-era del controllo touch. Continuiamo a frugare, pizzicare e scorrere le nostre vite mobili. Ma quel controllo touch sta lentamente cedendo il passo a una forma di controllo gestuale all'aperto. Per i giocatori là fuori, la tua prima interazione con questo potrebbe essere stata la riproduzione di giochi per Nintendo Wii o Xbox Kinect iperattivi: entrambe le console utilizzano una tecnologia avanzata di motion capture per abbinare i movimenti dei giocatori con gli avatar di gioco. 

    Ebbene, questa tecnologia non resterà confinata ai videogiochi e al cinema con schermo verde, ma entrerà presto nel più ampio mercato dell'elettronica di consumo. Un esempio lampante di come potrebbe apparire è un'impresa di Google chiamata Project Soli (guarda il suo fantastico e breve video dimostrativo qui). Gli sviluppatori di questo progetto utilizzano un radar in miniatura per tracciare i movimenti fini della mano e delle dita per simulare il poke, il pizzico e lo swipe all'aperto invece che contro uno schermo. Questo è il tipo di tecnologia che aiuterà a rendere i dispositivi indossabili più facili da usare e quindi più attraenti per un pubblico più ampio.

    Interfaccia tridimensionale. Portando questo controllo gestuale all'aperto ulteriormente lungo la sua naturale progressione, verso la metà degli anni 2020, potremmo vedere l'interfaccia desktop tradizionale, la tastiera e il mouse fidati, lentamente sostituiti dall'interfaccia gestuale, nello stesso stile reso popolare dal film Minority Rapporto. In effetti, John Underkoffler, ricercatore dell'interfaccia utente, consulente scientifico e inventore delle scene dell'interfaccia gestuale olografica di Minority Report, sta attualmente lavorando al versione reale—una tecnologia a cui si riferisce come un ambiente operativo spaziale di interfaccia uomo-macchina. (Probabilmente avrà bisogno di trovare un acronimo pratico per quello.)

    Usando questa tecnologia, un giorno ti siederai o starai davanti a un grande display e utilizzerai vari gesti delle mani per comandare il tuo computer. Sembra davvero fantastico (vedi link sopra), ma come puoi immaginare, i gesti delle mani potrebbero essere ottimi per saltare i canali TV, puntare/fare clic sui collegamenti o progettare modelli tridimensionali, ma non funzioneranno così bene quando si scrive a lungo saggi. Ecco perché, poiché la tecnologia dei gesti all'aperto viene gradualmente inclusa in un numero sempre maggiore di dispositivi elettronici di consumo, sarà probabilmente affiancata da funzionalità dell'interfaccia utente complementari come il comando vocale avanzato e la tecnologia di tracciamento dell'iride. 

    Sì, l'umile tastiera fisica potrebbe ancora sopravvivere negli anni '2020.

    Ologrammi aptici. Gli ologrammi che tutti abbiamo visto di persona o nei film tendono ad essere proiezioni di luce 2D o 3D che mostrano oggetti o persone in bilico nell'aria. Ciò che tutte queste proiezioni hanno in comune è che se ti allungassi per afferrarle, avresti solo una manciata d'aria. Non sarà così entro la metà degli anni 2020.

    Nuove tecnologie (vedi esempi: prima ed seconda) sono in fase di sviluppo per creare ologrammi che puoi toccare (o almeno imitare la sensazione tattile, cioè tattile). A seconda della tecnica utilizzata, che si tratti di onde ultrasoniche o di proiezione al plasma, gli ologrammi tattili apriranno un'industria completamente nuova di prodotti digitali che possiamo utilizzare nel mondo reale.

    Pensaci, invece di una tastiera fisica, puoi averne una olografica che può darti la sensazione fisica di digitare, ovunque ti trovi in ​​una stanza. Questa tecnologia è ciò che sarà mainstream Interfaccia all'aperto di Minority Report e forse porre fine all'era del desktop tradizionale.

    Immagina questo: invece di portare in giro un ingombrante laptop, un giorno potresti portare un piccolo wafer quadrato (forse delle dimensioni di un sottile disco rigido esterno) che proietterebbe uno schermo tattile e un ologramma della tastiera. Fatto un ulteriore passo avanti, immagina un ufficio con solo una scrivania e una sedia, quindi con un semplice comando vocale, un intero ufficio si proietta intorno a te: una postazione di lavoro olografica, decorazioni murali, piante, ecc. Acquistare mobili o decorazioni in futuro può comportare una visita all'App Store insieme a una visita a Ikea.

    Parlando con il tuo assistente virtuale

    Mentre stiamo lentamente reinventando l'interfaccia utente touch, sta emergendo una nuova forma complementare di interfaccia utente che potrebbe sembrare ancora più intuitiva per la persona media: la parola.

    Amazon ha fatto un salto culturale con il rilascio del suo sistema di assistente personale artificialmente intelligente (AI), Alexa, e i vari prodotti di assistente domestico ad attivazione vocale che ha rilasciato insieme ad esso. Google, il presunto leader nell'IA, si è affrettato a seguire l'esempio con la propria suite di prodotti per l'assistente domestico. E insieme, la concorrenza multimiliardaria combinata tra questi due giganti della tecnologia ha portato a una rapida e diffusa accettazione di prodotti e assistenti di intelligenza artificiale ad attivazione vocale nel mercato dei consumatori in generale. E mentre sono ancora i primi giorni per questa tecnologia, questo scatto di crescita iniziale non dovrebbe essere sottovalutato.

    Che tu preferisca Alexa di Amazon, Assistente di Google, Siri di iPhone o Cortana di Windows, questi servizi sono progettati per consentirti di interfacciarti con il tuo telefono o dispositivo smart e accedere alla banca della conoscenza del Web con semplici comandi verbali, dicendo a questi "assistenti virtuali" cosa tu vuoi.

    È una straordinaria prodezza di ingegneria. E anche se non è del tutto perfetta, la tecnologia sta migliorando rapidamente; per esempio, Google ha annunciato nel maggio 2015 la sua tecnologia di riconoscimento vocale ora ha solo un tasso di errore dell'2020% e si sta riducendo. Quando si combina questo tasso di errore in calo con le enormi innovazioni che si verificano con i microchip e il cloud computing (delineate nei capitoli della serie in arrivo), possiamo aspettarci che gli assistenti virtuali diventino piacevolmente accurati entro il XNUMX.

    Ancora meglio, gli assistenti virtuali attualmente in fase di progettazione non solo comprenderanno perfettamente il tuo discorso, ma comprenderanno anche il contesto dietro le domande che poni; riconosceranno i segnali indiretti emessi dal tuo tono di voce; si impegneranno anche in conversazioni di lunga durata con te, Il suo-stile.

    Nel complesso, gli assistenti virtuali basati sul riconoscimento vocale diventeranno il modo principale di accedere al Web per le nostre esigenze informative quotidiane. Nel frattempo, le forme fisiche dell'interfaccia utente esplorate in precedenza probabilmente domineranno le nostre attività digitali incentrate sul tempo libero e sul lavoro. Ma questa non è la fine del nostro viaggio nell'interfaccia utente, tutt'altro.

    wearables

    Non possiamo discutere dell'interfaccia utente senza menzionare anche i dispositivi indossabili, dispositivi che indossi o addirittura inserisci all'interno del tuo corpo per aiutarti a interagire digitalmente con il mondo che ti circonda. Come gli assistenti vocali, questi dispositivi svolgeranno un ruolo di supporto nel modo in cui interagiamo con lo spazio digitale; li useremo per scopi specifici in contesti specifici. Tuttavia, poiché abbiamo scritto un intero capitolo sui dispositivi indossabili nel nostro Futuro di Internet serie, non entreremo nei dettagli qui.

    Aumentare la nostra realtà

    Andando avanti, integrando tutte le tecnologie sopra menzionate sono la realtà virtuale e la realtà aumentata.

    A livello di base, la realtà aumentata (AR) è l'uso della tecnologia per modificare o migliorare digitalmente la tua percezione del mondo reale (pensa ai filtri Snapchat). Questo non deve essere confuso con la realtà virtuale (VR), dove il mondo reale è sostituito da un mondo simulato. Con AR, vedremo il mondo che ci circonda attraverso diversi filtri e livelli ricchi di informazioni contestuali che ci aiuteranno a navigare meglio nel nostro mondo in tempo reale e (probabilmente) ad arricchire la nostra realtà. Esploriamo brevemente entrambi gli estremi, iniziando con la realtà virtuale.

    Realta virtuale. A livello di base, la realtà virtuale (VR) è l'uso della tecnologia per creare digitalmente un'illusione audiovisiva coinvolgente e convincente della realtà. E a differenza di AR, che attualmente (2018) soffre di una grande varietà di ostacoli tecnologici e sociali prima di ottenere l'accettazione del mercato di massa, la realtà virtuale è in circolazione da decenni nella cultura popolare. L'abbiamo visto in una grande varietà di film e programmi televisivi orientati al futuro. Molti di noi hanno persino provato versioni primitive della realtà virtuale in vecchie sale giochi e conferenze e fiere orientate alla tecnologia.

    Ciò che è diverso questa volta è che la tecnologia VR di oggi è più accessibile che mai. Grazie alla miniaturizzazione di varie tecnologie chiave (originariamente utilizzate per realizzare smartphone), il costo dei visori VR è crollato al punto che aziende potenti come Facebook, Sony e Google stanno ora rilasciando annualmente alle masse visori VR a prezzi accessibili.

    Questo rappresenta l'inizio di un mezzo di mercato di massa completamente nuovo, che attirerà gradualmente migliaia di sviluppatori di software e hardware. Infatti, entro la fine degli anni 2020, le app e i giochi VR genereranno più download rispetto alle tradizionali app mobili.

    Istruzione, formazione professionale, riunioni di lavoro, turismo virtuale, giochi e intrattenimento: queste sono solo alcune delle molte applicazioni che la realtà virtuale economica, intuitiva e realistica può migliorare (se non interrompere del tutto). Tuttavia, a differenza di quanto visto nei romanzi e nei film di fantascienza, il futuro in cui le persone trascorrono tutto il giorno nei mondi VR è lontano decenni. Detto questo, ciò che passeremo tutto il giorno a utilizzare è AR.

    Realtà aumentata. Come notato in precedenza, l'obiettivo di AR è fungere da filtro digitale in cima alla tua percezione del mondo reale. Quando guardi l'ambiente circostante, l'AR può migliorare o alterare la tua percezione del tuo ambiente o fornire informazioni utili e contestualmente rilevanti che possono aiutarti a comprendere meglio il tuo ambiente. Per darti un'idea migliore di come potrebbe apparire, dai un'occhiata ai video qui sotto:

    Il primo video è del leader emergente in AR, Magic Leap:

     

    Successivamente, c'è un cortometraggio (6 min) di Keiichi Matsuda su come potrebbe apparire l'AR negli anni '2030:

     

    Dai video sopra, puoi immaginare il numero quasi illimitato di applicazioni che la tecnologia AR un giorno consentirà, ed è per questo motivo che la maggior parte dei più grandi giocatori della tecnologia:Google, Apple, Facebook, Microsoft, Baidu, Intel, e altro ancora, stanno già investendo molto nella ricerca AR.

    Basandosi sulle interfacce gestuali olografiche e all'aperto descritte in precedenza, AR finirà per eliminare la maggior parte delle tradizionali interfacce per computer con cui i consumatori sono cresciuti finora. Ad esempio, perché possedere un computer desktop o laptop quando puoi infilare un paio di occhiali AR e vedere un desktop o laptop virtuale apparire proprio di fronte a te. Allo stesso modo, i tuoi occhiali AR (e successivi Lenti a contatto AR) eliminerà il tuo smartphone fisico. Oh, e non dimentichiamoci dei tuoi televisori. In altre parole, la maggior parte della grande elettronica di oggi verrà digitalizzata sotto forma di app.

    Le aziende che investono presto per controllare i futuri sistemi operativi AR o ambienti digitali interromperanno e prenderanno il controllo di un'ampia percentuale dell'odierno settore dell'elettronica. Inoltre, AR avrà anche una gamma di applicazioni aziendali in settori come assistenza sanitaria, design/architettura, logistica, produzione, militare e altro, applicazioni di cui parleremo ulteriormente nella nostra serie Il futuro di Internet.

    Eppure, questo non è ancora il punto in cui finisce il futuro dell'interfaccia utente.

    Entra in Matrix con l'interfaccia cervello-computer

    C'è ancora un'altra forma di comunicazione che è ancora più intuitiva e naturale del movimento, della parola e dell'AR quando si tratta di controllare le macchine: il pensiero stesso.

    Questa scienza è un campo della bioelettronica chiamato Brain-Computer Interface (BCI). Implica l'uso di un dispositivo di scansione cerebrale o di un impianto per monitorare le onde cerebrali e associarle a comandi per controllare tutto ciò che è gestito da un computer.

    In effetti, forse non te ne sei reso conto, ma i primi giorni di BCI sono già iniziati. Gli amputati sono ora testare arti robotici controllato direttamente dalla mente, invece che attraverso sensori attaccati al moncone di chi lo indossa. Allo stesso modo, le persone con disabilità gravi (come le persone con tetraplegia) lo sono ora utilizzando BCI per guidare le loro sedie a rotelle motorizzate e manipolare armi robotiche. Ma aiutare gli amputati e le persone con disabilità a condurre una vita più indipendente non è la portata di cui BCI sarà capace. Ecco un breve elenco degli esperimenti in corso:

    Controllare le cose. I ricercatori hanno dimostrato con successo come BCI può consentire agli utenti di controllare le funzioni domestiche (illuminazione, tende, temperatura), nonché una gamma di altri dispositivi e veicoli. Guadare il video dimostrativo.

    Controllare gli animali. Un laboratorio ha testato con successo un esperimento BCI in cui un essere umano è stato in grado di fare a il topo da laboratorio muove la coda usando solo i suoi pensieri.

    Dal cervello al testo. Un uomo paralizzato utilizzato un impianto cerebrale per digitare otto parole al minuto. Nel frattempo, le squadre in US ed Germania stanno sviluppando un sistema che decodifica le onde cerebrali (pensieri) in testo. Gli esperimenti iniziali si sono rivelati efficaci e sperano che questa tecnologia non solo possa assistere la persona media, ma anche fornire alle persone con disabilità gravi (come il famoso fisico Stephen Hawking) la capacità di comunicare con il mondo più facilmente.

    Da cervello a cervello. Un team internazionale di scienziati è stato in grado di farlo imitare la telepatia facendo in modo che una persona dall'India pensasse alla parola "ciao", e tramite BCI, quella parola è stata convertita da onde cerebrali in codice binario, quindi inviata tramite e-mail in Francia, dove quel codice binario è stato riconvertito in onde cerebrali, per essere percepito dalla persona ricevente . Comunicazione da cervello a cervello, gente!

    Registrare sogni e ricordi. I ricercatori di Berkeley, in California, hanno compiuto incredibili progressi nella conversione onde cerebrali in immagini. Ai soggetti del test è stata presentata una serie di immagini mentre erano collegati ai sensori BCI. Quelle stesse immagini sono state poi ricostruite sullo schermo di un computer. Le immagini ricostruite erano super sgranate, ma con circa un decennio di tempo di sviluppo, questa prova di concetto un giorno ci permetterà di abbandonare la nostra fotocamera GoPro o addirittura di registrare i nostri sogni.

    Diventeremo maghi, dici?

    Inizialmente, utilizzeremo dispositivi esterni per BCI che sembrano un casco o una fascia per capelli (anni 2030) che alla fine lasceranno il posto a impianti cerebrali (fine anni 2040). In definitiva, questi dispositivi BCI collegheranno le nostre menti al cloud digitale e in seguito agiranno come un terzo emisfero per le nostre menti, quindi mentre i nostri emisferi sinistro e destro gestiscono la nostra creatività e le facoltà logiche, questo nuovo emisfero digitale alimentato dal cloud faciliterà le abilità dove gli umani spesso non sono all'altezza delle loro controparti AI, ovvero velocità, ripetizione e precisione.

    BCI è la chiave per il campo emergente della neurotecnologia che mira a fondere le nostre menti con le macchine per ottenere i punti di forza di entrambi i mondi. Esatto, tutti, entro il 2030 e mainstreaming entro la fine degli anni 2040, gli esseri umani useranno BCI per aggiornare il nostro cervello e comunicare tra loro e con gli animali, controllare computer ed elettronica, condividere ricordi e sogni e navigare sul web.

    So cosa stai pensando: Sì, si è intensificato rapidamente.

    Ma per quanto entusiasmanti siano tutti questi progressi dell'interfaccia utente, non saranno mai possibili senza progressi altrettanto entusiasmanti nel software e nell'hardware del computer. Queste scoperte sono ciò che il resto di questa serie Future of Computers esplorerà.

    Serie Future of Computers

    Futuro dello sviluppo software: Futuro dei computer P2

    La rivoluzione dell'archiviazione digitale: il futuro dei computer P3

    Una legge di Moore in dissolvenza per innescare un ripensamento fondamentale dei microchip: Future of Computers P4

    Il cloud computing diventa decentralizzato: Future of Computers P5

    Perché i paesi competono per costruire i più grandi supercomputer? Il futuro dei computer P6

    Come i computer quantistici cambieranno il mondo: Future of Computers P7     

    Prossimo aggiornamento programmato per questa previsione

    2023-02-08

    Riferimenti previsionali

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa previsione:

    I seguenti collegamenti Quantumrun sono stati referenziati per questa previsione: