Gesti, ologrammi e caricamento mentale in stile matrice

CREDITO IMMAGINE: Corsa quantistica

Gesti, ologrammi e caricamento mentale in stile matrice

    Prima erano le schede perforate, poi l'iconico mouse e la tastiera. Gli strumenti e i sistemi che utilizziamo per interagire con i computer sono ciò che ci consente di controllare e costruire il mondo che ci circonda in modi inimmaginabili per i nostri antenati. Abbiamo fatto molta strada per essere sicuri, ma quando si tratta del campo dell'interfaccia utente (UI, o il mezzo con cui interagiamo con i sistemi informatici), non abbiamo ancora visto nulla.

    Nelle ultime due puntate della nostra serie Future of Computers, abbiamo esplorato come le prossime innovazioni rimodelleranno l'umile microchip ed unità disco a sua volta, lancerà rivoluzioni globali nel mondo degli affari e della società. Ma queste innovazioni impallidiranno rispetto alle scoperte dell'interfaccia utente ora testate nei laboratori scientifici e nei garage di tutto il mondo.

    Ogni volta che l'umanità ha inventato una nuova forma di comunicazione - sia essa la parola, la parola scritta, la stampa, il telefono, Internet - la nostra società collettiva è fiorita con nuove idee, nuove forme di comunità e industrie completamente nuove. Il prossimo decennio vedrà la prossima evoluzione, il prossimo salto di qualità nella comunicazione e nell'interconnettività... e potrebbe semplicemente rimodellare ciò che significa essere umani.

    Che cos'è una buona interfaccia utente, comunque?

    L'era di colpire, pizzicare e scorrere i computer per fargli fare ciò che volevamo è iniziata un decennio fa. Per molti è iniziato con l'iPod. Laddove una volta eravamo abituati a fare clic, digitare e premere pulsanti robusti per comunicare le nostre volontà alle macchine, l'iPod ha reso popolare il concetto di scorrere verso sinistra o destra su un cerchio per selezionare la musica che si desidera ascoltare.

    Anche gli smartphone touchscreen iniziarono ad entrare nel mercato in quel periodo, introducendo una serie di altri comandi tattili come il tocco (per simulare la pressione di un pulsante), il pizzico (per ingrandire e ridurre), la pressione, tenere premuto e trascinare (per saltare tra i programmi, di solito). Questi comandi tattili hanno guadagnato rapidamente popolarità tra il pubblico per una serie di motivi: erano nuovi. Tutti i ragazzi fighi (famosi) lo stavano facendo. La tecnologia touchscreen è diventata economica e mainstream. Ma soprattutto, i movimenti sembravano naturali, intuitivi.

    Ecco cos'è una buona interfaccia utente del computer: creare modi più naturali e intuitivi per interagire con software e dispositivi. E questo è il principio fondamentale che guiderà i futuri dispositivi UI che stai per conoscere.

    Colpire, pizzicare e strofinare l'aria

    A partire dal 2015, gli smartphone hanno sostituito i telefoni cellulari standard in gran parte del mondo sviluppato. Ciò significa che gran parte del mondo ora ha familiarità con i vari comandi tattili sopra menzionati. Attraverso app e giochi, gli utenti di smartphone hanno appreso una grande varietà di abilità astratte per controllare i supercomputer nelle loro tasche.

    Sono queste competenze che prepareranno i consumatori per la prossima ondata di dispositivi, dispositivi che ci permetteranno di fondere più facilmente il mondo digitale con i nostri ambienti del mondo reale. Quindi diamo un'occhiata ad alcuni degli strumenti che useremo per navigare nel nostro mondo futuro.

    Controllo dei gesti all'aperto. A partire dal 2015, siamo ancora nella micro-età del controllo touch. Ancora colpiamo, pizzichiamo e ci facciamo strada attraverso le nostre vite mobili. Ma quel controllo tattile sta lentamente cedendo il passo a una forma di controllo gestuale all'aria aperta. Per i giocatori là fuori, la tua prima interazione con questo potrebbe essere stata giocare a giochi Nintendo Wii iperattivi o agli ultimi giochi Xbox Kinect: entrambe le console utilizzano una tecnologia avanzata di motion capture per abbinare i movimenti del giocatore con gli avatar del gioco.

    Bene, questa tecnologia non rimane confinata ai videogiochi e al cinema sullo schermo verde; Entrerà presto nel più ampio mercato dell'elettronica di consumo. Un esempio lampante di ciò che potrebbe sembrare è un'impresa di Google chiamata Project Soli (guarda il suo fantastico e breve video dimostrativo qui). Gli sviluppatori di questo progetto utilizzano un radar in miniatura per tracciare i movimenti fini della mano e delle dita per simulare il poke, il pizzico e lo swipe all'aperto invece che contro uno schermo. Questo è il tipo di tecnologia che aiuterà a rendere i dispositivi indossabili più facili da usare e quindi più attraenti per un pubblico più ampio.

    Interfaccia tridimensionale. Portando questo controllo gestuale all'aperto ulteriormente lungo la sua naturale progressione, verso la metà degli anni 2020, potremmo vedere l'interfaccia desktop tradizionale, la tastiera e il mouse fidati, lentamente sostituiti dall'interfaccia gestuale, nello stesso stile reso popolare dal film Minority Rapporto. In effetti, John Underkoffler, ricercatore dell'interfaccia utente, consulente scientifico e inventore delle scene dell'interfaccia gestuale olografica di Minority Report, sta attualmente lavorando al versione della vita reale— una tecnologia a cui si riferisce come un ambiente operativo spaziale di interfaccia uomo-macchina.

    Usando questa tecnologia, un giorno ti siederai o starai davanti a un grande display e utilizzerai vari gesti delle mani per comandare il tuo computer. Sembra davvero fantastico (vedi link sopra), ma come puoi immaginare, i gesti delle mani potrebbero essere ottimi per saltare i canali TV, puntare/fare clic sui collegamenti o progettare modelli tridimensionali, ma non funzioneranno così bene quando si scrive a lungo saggi. Ecco perché, poiché la tecnologia dei gesti all'aperto viene gradualmente inclusa in un numero sempre maggiore di dispositivi elettronici di consumo, sarà probabilmente affiancata da funzionalità dell'interfaccia utente complementari come il comando vocale avanzato e la tecnologia di tracciamento dell'iride.

    Sì, l'umile tastiera fisica potrebbe ancora sopravvivere negli anni '2020... almeno fino a quando queste prossime due innovazioni non la digitalizzeranno completamente entro la fine di quel decennio.

    Ologrammi aptici. Gli ologrammi che tutti abbiamo visto di persona o nei film tendono ad essere proiezioni di luce 2D o 3D che mostrano oggetti o persone che si librano nell'aria. Ciò che tutte queste proiezioni hanno in comune è che se ti allunghi per afferrarle, otterrai solo una manciata d'aria. Non sarà così ancora per molto.

    Nuove tecnologie (vedi esempi: prima ed seconda) sono in fase di sviluppo per creare ologrammi che puoi toccare (o almeno imitare la sensazione del tatto, cioè tattile). A seconda della tecnica utilizzata, che si tratti di onde ultrasoniche o proiezione al plasma, gli ologrammi tattili apriranno un'industria completamente nuova di prodotti digitali che possono essere utilizzati nel mondo reale.

    Pensaci, invece di una tastiera fisica, puoi averne una olografica che può darti la sensazione fisica di digitare, ovunque ti trovi in ​​una stanza. Questa tecnologia è ciò che sarà mainstream Interfaccia all'aperto di Minority Report e porre fine all'era del desktop tradizionale.

    Immagina questo: invece di portare in giro un laptop ingombrante, un giorno potresti portare un piccolo wafer quadrato (forse delle dimensioni di una custodia per CD) che proietterebbe uno schermo e una tastiera toccabili. Facendo un ulteriore passo avanti, immagina un ufficio con solo una scrivania e una sedia, quindi con un semplice comando vocale, un intero ufficio si proietta intorno a te: una postazione di lavoro olografica, decorazioni murali, piante, ecc. Acquistare mobili o decorazioni in futuro può comportare una visita all'app store insieme a una visita a Ikea.

    Realtà virtuale e aumentata. Simile agli ologrammi tattili spiegati sopra, la realtà virtuale e aumentata giocherà un ruolo simile nell'interfaccia utente degli anni '2020. Ognuno avrà i propri articoli per spiegarli completamente, ma ai fini di questo articolo è utile sapere quanto segue: la realtà virtuale sarà in gran parte limitata a giochi avanzati, simulazioni di addestramento e visualizzazione di dati astratti per il prossimo decennio.

    Nel frattempo, la realtà aumentata avrà un appeal commerciale molto più ampio in quanto sovrapporrà le informazioni digitali al mondo reale; se hai mai visto il video promozionale di Google Glass (video), allora capirai quanto può essere utile un giorno questa tecnologia una volta maturata entro la metà degli anni '2020.

    Il tuo assistente virtuale

    Abbiamo coperto le forme di tocco e movimento dell'interfaccia utente destinata a prendere il sopravvento sui nostri futuri computer ed elettronica. Ora è il momento di esplorare un'altra forma di interfaccia utente che potrebbe sembrare ancora più naturale e intuitiva: il parlato.

    Coloro che possiedono gli ultimi modelli di smartphone molto probabilmente hanno già sperimentato il riconoscimento vocale, sia sotto forma di Siri di iPhone, Google Now di Android o Cortana di Windows. Questi servizi sono progettati per permetterti di interfacciarti con il tuo telefono e accedere alla banca dati del web semplicemente dicendo verbalmente a questi 'assistenti virtuali' quello che vuoi.

    È un'incredibile impresa ingegneristica, ma non è nemmeno del tutto perfetta. Chiunque abbia giocato con questi servizi sa che spesso interpretano male il tuo discorso (soprattutto per quelle persone con forti accenti) e occasionalmente ti danno una risposta che non stavi cercando.

    Fortunatamente, questi fallimenti non dureranno a lungo. Google ha annunciato nel maggio 2015 che la sua tecnologia di riconoscimento vocale ora ha solo un tasso di errore dell'2020% e si sta riducendo. Quando si combina questo tasso di errore in calo con le massicce innovazioni in atto con i microchip e il cloud computing, possiamo aspettarci che gli assistenti virtuali diventino spaventosamente precisi entro il XNUMX.

    Guarda questo video per un esempio di ciò che è possibile e di ciò che diventerà pubblicamente disponibile in pochi anni.

    Potrebbe essere scioccante rendersene conto, ma gli assistenti virtuali attualmente in fase di progettazione non solo capiranno perfettamente il tuo discorso, ma capiranno anche il contesto dietro le domande che poni; riconosceranno i segnali indiretti emessi dal tuo tono di voce; si impegneranno anche in lunghe conversazioni con te, Il suo-stile.

    Nel complesso, gli assistenti virtuali basati sul riconoscimento vocale diventeranno il modo principale di accedere al Web per le nostre esigenze informative quotidiane. Nel frattempo, le forme fisiche dell'interfaccia utente esplorate in precedenza probabilmente domineranno le nostre attività digitali incentrate sul tempo libero e sul lavoro. Ma questa non è la fine del nostro viaggio nell'interfaccia utente, tutt'altro.

    Entra in Matrix con Brain Computer Interface

    Proprio quando pensavi che avessimo coperto tutto, c'è ancora un'altra forma di comunicazione che è ancora più intuitiva e naturale del tatto, del movimento e della parola quando si tratta di controllare le macchine: il pensiero stesso.

    Questa scienza è un campo della bioelettronica chiamato Brain-Computer Interface (BCI). Implica l'uso di un impianto o di un dispositivo di scansione del cervello per monitorare le tue onde cerebrali e associarle a comandi per controllare tutto ciò che viene eseguito da un computer.

    In effetti, forse non te ne sei reso conto, ma i primi giorni di BCI sono già iniziati. Gli amputati sono ora testare arti robotici controllato direttamente dalla mente, invece che attraverso sensori attaccati al moncone di chi lo indossa. Allo stesso modo, le persone con disabilità gravi (come i tetraplegici) lo sono ora utilizzando BCI per guidare le loro sedie a rotelle motorizzate e manipolare armi robotiche. Ma aiutare gli amputati e le persone con disabilità a condurre una vita più indipendente non è la portata di cui BCI sarà capace. Ecco un breve elenco degli esperimenti in corso:

    Controllare le cose. I ricercatori hanno dimostrato con successo come BCI può consentire agli utenti di controllare le funzioni domestiche (illuminazione, tende, temperatura), nonché una gamma di altri dispositivi e veicoli. Guadare video dimostrativo.

    Controllare gli animali. Un laboratorio ha testato con successo un esperimento BCI in cui un essere umano è stato in grado di fare a il topo da laboratorio muove la coda usando solo i suoi pensieri.

    Dal cervello al testo. Squadre nel US ed Germania stanno sviluppando un sistema che decodifica le onde cerebrali (pensieri) in testo. Gli esperimenti iniziali si sono dimostrati efficaci e sperano che questa tecnologia non solo possa aiutare la persona media, ma anche fornire alle persone con gravi disabilità (come il famoso fisico Stephen Hawking) la capacità di comunicare con il mondo più facilmente.

    Da cervello a cervello. Un team internazionale di scienziati è stato in grado di farlo imitare la telepatia facendo in modo che una persona dall'India pensasse alla parola "ciao", e tramite BCI, quella parola è stata convertita da onde cerebrali in codice binario, quindi inviata tramite e-mail in Francia, dove quel codice binario è stato riconvertito in onde cerebrali, per essere percepito dalla persona ricevente . Comunicazione da cervello a cervello, gente!

    Registrare sogni e ricordi. I ricercatori di Berkeley, in California, hanno fatto incredibili progressi nella conversione onde cerebrali in immagini. Ai soggetti del test è stata presentata una serie di immagini mentre erano collegati ai sensori BCI. Quelle stesse immagini sono state poi ricostruite sullo schermo di un computer. Le immagini ricostruite erano super sgranate, ma con circa un decennio di tempo di sviluppo, questa prova di concetto un giorno ci permetterà di abbandonare la nostra videocamera GoPro o persino di registrare i nostri sogni.

    Diventeremo maghi, dici?

    Esatto, tutti, entro il 2030 e integrati entro la fine del 2040, gli esseri umani inizieranno a comunicare tra loro e con gli animali, a controllare computer ed elettronica, a condividere ricordi e sogni e a navigare nel web, tutto usando le nostre menti.

    So cosa stai pensando: Sì, si è intensificato rapidamente. Ma cosa significa tutto questo? In che modo queste tecnologie dell'interfaccia utente rimodelleranno la nostra società condivisa? Bene, immagino che dovrai solo leggere l'ultima puntata della nostra serie Future of Computers per scoprirlo.

    FUTURO DEI COLLEGAMENTI DI SERIE DEI COMPUTER

    Il rallentamento dell'appetito per bit, byte e cubiti di Moores Law: il futuro dei computer P1

    La rivoluzione dell'archiviazione digitale: il futuro dei computer P2

    La società e la generazione ibrida: il futuro dei computer P4

    Prossimo aggiornamento programmato per questa previsione

    2023-01-26

    Riferimenti previsionali

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa previsione:

    I seguenti collegamenti Quantumrun sono stati referenziati per questa previsione: