Dites adieu à votre souris et à votre clavier, de nouvelles interfaces utilisateur pour redéfinir l'humanité : l'avenir des ordinateurs P1

CRÉDIT D'IMAGE: Course quantique

Dites adieu à votre souris et à votre clavier, de nouvelles interfaces utilisateur pour redéfinir l'humanité : l'avenir des ordinateurs P1

    D'abord, c'était des cartes perforées; puis c'était la souris et le clavier emblématiques. Les outils et les systèmes que nous utilisons pour interagir avec les ordinateurs nous permettent de contrôler et de construire le monde qui nous entoure d'une manière inimaginable pour nos ancêtres. Nous avons parcouru un long chemin pour être sûr, mais quand il s'agit du domaine de l'interface utilisateur (UI, les moyens par lesquels nous interagissons avec les systèmes informatiques), nous n'avons encore rien vu.

    Certains pourraient dire qu'il est étrange de commencer notre série Future of Computers avec un chapitre sur l'interface utilisateur, mais c'est la façon dont nous utilisons les ordinateurs qui donnera un sens aux innovations que nous explorons dans le reste de cette série.

    Chaque fois que l'humanité a inventé une nouvelle forme de communication - que ce soit la parole, l'écrit, l'imprimerie, le téléphone, Internet - notre société collective s'est épanouie avec de nouvelles idées, de nouvelles formes de communauté et des industries entièrement nouvelles. La prochaine décennie verra la prochaine évolution, le prochain saut quantique dans la communication et l'interconnectivité, entièrement intermédié par une gamme d'interfaces informatiques futures… et cela pourrait simplement remodeler ce que signifie être humain.

    Qu'est-ce qu'une "bonne" interface utilisateur, de toute façon ?

    L'ère de piquer, pincer et balayer les ordinateurs pour les amener à faire ce que nous voulions a commencé il y a plus de dix ans. Pour beaucoup, tout a commencé avec l'iPod. Alors qu'autrefois nous étions habitués à cliquer, taper et appuyer sur des boutons robustes pour communiquer nos volontés aux machines, l'iPod a popularisé le concept de balayer vers la gauche ou la droite sur un cercle pour sélectionner la musique que vous vouliez écouter.

    Les smartphones à écran tactile sont entrés sur le marché peu de temps après, introduisant une gamme d'autres invites de commande tactiles comme le poke (pour simuler l'appui sur un bouton), le pincement (pour zoomer et dézoomer), appuyer, maintenir et faire glisser. Ces commandes tactiles ont rapidement gagné du terrain auprès du public pour plusieurs raisons : Elles étaient nouvelles. Tous les enfants cool (célèbres) le faisaient. La technologie des écrans tactiles est devenue bon marché et courante. Mais surtout, les mouvements étaient intuitifs, naturels.

    C'est la raison d'être d'une bonne interface utilisateur informatique : créer des façons plus naturelles d'interagir avec les logiciels et les appareils. Et c'est le principe de base qui guidera les futurs appareils d'interface utilisateur que vous allez découvrir.

    Pousser, pincer et balayer l'air

    Depuis 2018, les smartphones ont remplacé les téléphones mobiles standard dans une grande partie du monde développé. Cela signifie qu'une grande partie du monde est désormais familiarisée avec les différentes commandes tactiles mentionnées ci-dessus. Grâce à des applications et des jeux, les utilisateurs de smartphones ont appris une grande variété de compétences abstraites pour contrôler les superordinateurs relatifs assis dans leurs poches. 

    Ce sont ces compétences qui prépareront les consommateurs à la prochaine vague d'appareils, des appareils qui nous permettront de fusionner plus facilement le monde numérique avec nos environnements réels. Jetons donc un coup d'œil à certains des outils que nous utiliserons pour naviguer dans notre monde futur.

    Commande gestuelle en plein air. En 2018, nous sommes toujours dans le micro-âge du contrôle tactile. Nous poussons, pinçons et balayons toujours notre chemin à travers nos vies mobiles. Mais ce contrôle tactile cède lentement la place à une forme de contrôle gestuel en plein air. Pour les joueurs, votre première interaction avec cela a peut-être été de jouer à des jeux Nintendo Wii hyperactifs ou aux jeux Xbox Kinect - les deux consoles utilisent une technologie avancée de capture de mouvement pour faire correspondre les mouvements des joueurs avec les avatars du jeu. 

    Eh bien, cette technologie ne se limite pas aux jeux vidéo et à la réalisation de films sur écran vert, elle entrera bientôt sur le marché plus large de l'électronique grand public. Un exemple frappant de ce à quoi cela pourrait ressembler est une entreprise de Google nommée Project Soli (regardez son incroyable et courte vidéo de démonstration ici). Les développeurs de ce projet utilisent un radar miniature pour suivre les mouvements fins de votre main et de vos doigts afin de simuler le coup, le pincement et le balayage en plein air plutôt que contre un écran. C'est le genre de technologie qui contribuera à rendre les appareils portables plus faciles à utiliser et donc plus attrayants pour un public plus large.

    Interface tridimensionnelle. Poussant ce contrôle gestuel en plein air plus loin dans sa progression naturelle, au milieu des années 2020, nous pourrions voir l'interface de bureau traditionnelle - le clavier et la souris fidèles - lentement remplacée par l'interface gestuelle, dans le même style popularisé par le film, Minority Signaler. En fait, John Underkoffler, chercheur en interface utilisateur, conseiller scientifique et inventeur des scènes d'interface gestuelle holographique de Minority Report, travaille actuellement sur le version réelle— une technologie qu'il appelle un environnement d'exploitation spatial d'interface homme-machine. (Il devra probablement trouver un acronyme pratique pour cela.)

    Grâce à cette technologie, vous serez un jour assis ou debout devant un grand écran et utiliserez divers gestes de la main pour commander votre ordinateur. Cela a l'air vraiment cool (voir le lien ci-dessus), mais comme vous pouvez le deviner, les gestes de la main peuvent être parfaits pour sauter des chaînes de télévision, pointer/cliquer sur des liens ou concevoir des modèles en trois dimensions, mais ils ne fonctionneront pas aussi bien lors de l'écriture longue essais. C'est pourquoi, à mesure que la technologie gestuelle en plein air est progressivement incluse dans de plus en plus d'électronique grand public, elle sera probablement rejointe par des fonctionnalités d'interface utilisateur complémentaires telles que la commande vocale avancée et la technologie de suivi de l'iris. 

    Oui, l'humble clavier physique peut encore survivre dans les années 2020.

    Hologrammes haptiques. Les hologrammes que nous avons tous vus en personne ou dans les films ont tendance à être des projections de lumière 2D ou 3D qui montrent des objets ou des personnes planant dans les airs. Ce que ces projections ont toutes en commun, c'est que si vous tendiez la main pour les attraper, vous n'obtiendriez qu'une poignée d'air. Ce ne sera plus le cas au milieu des années 2020.

    Nouvelles technologies (voir exemples : UN ainsi que deux) sont en cours de développement pour créer des hologrammes que vous pouvez toucher (ou au moins imiter la sensation du toucher, c'est-à-dire l'haptique). Selon la technique utilisée, qu'il s'agisse d'ondes ultrasonores ou de projection plasma, les hologrammes haptiques ouvriront une toute nouvelle industrie de produits numériques que nous pourrons utiliser dans le monde réel.

    Pensez-y, au lieu d'un clavier physique, vous pouvez en avoir un holographique qui peut vous donner la sensation physique de taper, où que vous soyez dans une pièce. Cette technologie est ce qui intégrera le Interface en plein air du rapport minoritaire et peut-être mettre fin à l'âge du bureau traditionnel.

    Imaginez ceci : au lieu de transporter un ordinateur portable encombrant, vous pourriez un jour transporter une petite plaquette carrée (peut-être de la taille d'un disque dur externe fin) qui projetterait un écran d'affichage tactile et un hologramme de clavier. Poussez un peu plus loin, imaginez un bureau avec seulement un bureau et une chaise, puis d'une simple commande vocale, tout un bureau se projette autour de vous : un poste de travail holographique, des décorations murales, des plantes, etc. peut impliquer une visite à l'App Store ainsi qu'une visite à Ikea.

    Parler à votre assistant virtuel

    Alors que nous réimaginons lentement l'interface utilisateur tactile, une nouvelle forme d'interface utilisateur complémentaire émerge et peut sembler encore plus intuitive pour la personne moyenne : la parole.

    Amazon a fait sensation sur le plan culturel avec la sortie de son système d'assistant personnel à intelligence artificielle (IA), Alexa, et des divers produits d'assistant domestique à commande vocale qu'il a lancés parallèlement. Google, le leader supposé de l'IA, s'est empressé de suivre le mouvement avec sa propre suite de produits d'assistance à domicile. Et ensemble, la concurrence combinée de plusieurs milliards entre ces deux géants de la technologie a conduit à une acceptation rapide et généralisée des produits et assistants IA activés par la voix sur le marché grand public. Et bien qu'il soit encore tôt pour cette technologie, cette poussée de croissance précoce ne doit pas être sous-estimée.

    Que vous préfériez Alexa d'Amazon, l'assistant de Google, Siri de l'iPhone ou Windows Cortana, ces services sont conçus pour vous permettre de vous connecter à votre téléphone ou à votre appareil intelligent et d'accéder à la banque de connaissances du Web avec de simples commandes verbales, indiquant à ces "assistants virtuels" ce que tu veux.

    C'est un incroyable exploit d'ingénierie. Et même si ce n'est pas tout à fait parfait, la technologie s'améliore rapidement ; par exemple Google annoncé en mai 2015 que sa technologie de reconnaissance vocale n'a plus qu'un taux d'erreur de 2020% et qu'il diminue. Lorsque vous combinez ce taux d'erreur en baisse avec les innovations massives des micropuces et du cloud computing (décrites dans les prochains chapitres de la série), nous pouvons nous attendre à ce que les assistants virtuels deviennent agréablement précis d'ici XNUMX.

    Mieux encore, les assistants virtuels en cours d'ingénierie comprendront non seulement parfaitement votre discours, mais ils comprendront également le contexte derrière les questions que vous posez ; ils reconnaîtront les signaux indirects émis par votre ton de voix ; ils engageront même de longues conversations avec vous, Son-style.

    Dans l'ensemble, les assistants virtuels basés sur la reconnaissance vocale deviendront le principal moyen d'accéder au Web pour nos besoins d'information quotidiens. Pendant ce temps, les formes physiques de l'interface utilisateur explorées précédemment domineront probablement nos activités numériques axées sur les loisirs et le travail. Mais ce n'est pas la fin de notre voyage dans l'interface utilisateur, loin de là.

    Smartwatches

    Nous ne pouvons pas discuter de l'interface utilisateur sans mentionner également les appareils portables - des appareils que vous portez ou même que vous insérez à l'intérieur de votre corps pour vous aider à interagir numériquement avec le monde qui vous entoure. Comme les assistants vocaux, ces appareils joueront un rôle de soutien dans la façon dont nous interagissons avec l'espace numérique ; nous les utiliserons à des fins spécifiques dans des contextes spécifiques. Cependant, puisque nous avons écrit un chapitre entier sur les wearables dans notre L'avenir d'Internet série, nous n'entrerons pas plus dans les détails ici.

    Augmenter notre réalité

    À l'avenir, l'intégration de toutes les technologies mentionnées ci-dessus sont la réalité virtuelle et la réalité augmentée.

    À la base, la réalité augmentée (AR) est l'utilisation de la technologie pour modifier ou améliorer numériquement votre perception du monde réel (pensez aux filtres Snapchat). Cela ne doit pas être confondu avec la réalité virtuelle (VR), où le monde réel est remplacé par un monde simulé. Avec AR, nous verrons le monde qui nous entoure à travers différents filtres et couches riches en informations contextuelles qui nous aideront à mieux naviguer dans notre monde en temps réel et (sans doute) enrichir notre réalité. Explorons brièvement les deux extrêmes, en commençant par la réalité virtuelle.

    Réalité virtuelle. À la base, la réalité virtuelle (VR) est l'utilisation de la technologie pour créer numériquement une illusion audiovisuelle immersive et convaincante de la réalité. Et contrairement à la réalité augmentée, qui souffre actuellement (2018) d'une grande variété d'obstacles technologiques et sociaux avant d'être acceptée par le marché de masse, la réalité virtuelle existe depuis des décennies dans la culture populaire. Nous l'avons vu dans une grande variété de films et d'émissions de télévision tournés vers l'avenir. Beaucoup d'entre nous ont même essayé des versions primitives de la réalité virtuelle dans d'anciennes arcades et des conférences et salons professionnels axés sur la technologie.

    Ce qui est différent cette fois-ci, c'est que la technologie VR d'aujourd'hui est plus accessible que jamais. Grâce à la miniaturisation de diverses technologies clés (utilisées à l'origine pour fabriquer des smartphones), le coût des casques VR a atteint un point tel que des entreprises puissantes comme Facebook, Sony et Google proposent désormais chaque année des casques VR abordables au grand public.

    Cela représente le début d'un tout nouveau média grand public, qui attirera progressivement des milliers de développeurs de logiciels et de matériel. En fait, à la fin des années 2020, les applications et les jeux VR généreront plus de téléchargements que les applications mobiles traditionnelles.

    L'éducation, la formation professionnelle, les réunions d'affaires, le tourisme virtuel, les jeux et les divertissements ne sont que quelques-unes des nombreuses applications bon marché, conviviales et réalistes que la réalité virtuelle peut et va améliorer (sinon complètement perturber). Cependant, contrairement à ce que nous avons vu dans les romans et les films de science-fiction, l'avenir où les gens passent toute la journée dans des mondes VR est dans des décennies. Cela dit, ce que nous passerons toute la journée à utiliser, c'est la réalité augmentée.

    Réalité augmentée. Comme indiqué précédemment, l'objectif de la RA est d'agir comme un filtre numérique en plus de votre perception du monde réel. Lorsque vous regardez votre environnement, la réalité augmentée peut améliorer ou modifier votre perception de votre environnement ou fournir des informations utiles et contextuellement pertinentes qui peuvent vous aider à mieux comprendre votre environnement. Pour vous donner une meilleure idée de ce à quoi cela peut ressembler, regardez les vidéos ci-dessous :

    La première vidéo est du leader émergent de la RA, Magic Leap :

     

    Ensuite, un court métrage (6 min) de Keiichi Matsuda sur ce à quoi pourrait ressembler la réalité augmentée dans les années 2030 :

     

    À partir des vidéos ci-dessus, vous pouvez imaginer le nombre presque illimité d'applications que la technologie AR permettra un jour, et c'est pour cette raison que la plupart des plus grands acteurs de la technologie...Google, Apple, Facebook, Microsoft, Baidu, Intel, et plus encore, investissent déjà massivement dans la recherche sur la réalité augmentée.

    S'appuyant sur les interfaces gestuelles holographiques et en plein air décrites précédemment, la réalité augmentée finira par supprimer la plupart des interfaces informatiques traditionnelles avec lesquelles les consommateurs ont grandi jusqu'à présent. Par exemple, pourquoi posséder un ordinateur de bureau ou un ordinateur portable alors que vous pouvez enfiler une paire de lunettes AR et voir un ordinateur de bureau ou un ordinateur portable virtuel apparaître juste devant vous. De même, vos lunettes AR (et plus tard Lentilles de contact AR) supprimera votre smartphone physique. Oh, et n'oublions pas vos téléviseurs. En d'autres termes, la plupart des gros appareils électroniques d'aujourd'hui seront numérisés sous la forme d'une application.

    Les entreprises qui investissent tôt pour contrôler les futurs systèmes d'exploitation AR ou les environnements numériques perturberont et prendront le contrôle d'un grand pourcentage du secteur de l'électronique d'aujourd'hui. Parallèlement, la réalité augmentée disposera également d'une gamme d'applications commerciales dans des secteurs tels que la santé, la conception/l'architecture, la logistique, la fabrication, l'armée, etc.

    Et pourtant, ce n'est toujours pas là que se termine l'avenir de l'interface utilisateur.

    Entrez dans la matrice avec l'interface cerveau-ordinateur

    Il existe encore une autre forme de communication encore plus intuitive et naturelle que le mouvement, la parole et la réalité augmentée lorsqu'il s'agit de contrôler des machines : la pensée elle-même.

    Cette science est un domaine de la bioélectronique appelé Brain-Computer Interface (BCI). Cela implique l'utilisation d'un scanner cérébral ou d'un implant pour surveiller vos ondes cérébrales et les associer à des commandes pour contrôler tout ce qui est géré par un ordinateur.

    En fait, vous ne l'avez peut-être pas réalisé, mais les premiers jours de BCI ont déjà commencé. Les amputés sont maintenant tester des membres robotiques contrôlé directement par l'esprit, au lieu de passer par des capteurs attachés au moignon du porteur. De même, les personnes gravement handicapées (telles que les personnes quadriplégiques) sont désormais utilisant BCI pour diriger leurs fauteuils roulants motorisés et manipuler des bras robotiques. Mais aider les amputés et les personnes handicapées à mener une vie plus indépendante n'est pas à la hauteur de ce dont BCI sera capable. Voici une courte liste des expériences en cours :

    Contrôler les choses. Les chercheurs ont démontré avec succès comment BCI peut permettre aux utilisateurs de contrôler les fonctions domestiques (éclairage, rideaux, température), ainsi qu'une gamme d'autres appareils et véhicules. Regardez la vidéo de démonstration.

    Contrôle des animaux. Un laboratoire a testé avec succès une expérience BCI où un humain a pu faire un rat de laboratoire bouge sa queue n'utilisant que ses pensées.

    Du cerveau au texte. Un homme paralysé utilisé un implant cérébral taper huit mots par minute. Pendant ce temps, les équipes du US ainsi que Allemagne développent un système qui décode les ondes cérébrales (pensées) en texte. Les premières expériences se sont avérées fructueuses, et ils espèrent que cette technologie pourra non seulement aider la personne moyenne, mais aussi fournir aux personnes gravement handicapées (comme le célèbre physicien Stephen Hawking) la capacité de communiquer plus facilement avec le monde.

    Cerveau à cerveau. Une équipe internationale de scientifiques a pu imiter la télépathie en demandant à une personne d'Inde de penser au mot "bonjour", et grâce à BCI, ce mot a été converti d'ondes cérébrales en code binaire, puis envoyé par e-mail en France, où ce code binaire a été reconverti en ondes cérébrales, pour être perçu par la personne destinataire . Communication cerveau-à-cerveau, les amis !

    Enregistrement des rêves et des souvenirs. Des chercheurs de Berkeley, en Californie, ont fait des progrès incroyables en convertissant ondes cérébrales en images. Les sujets de test ont reçu une série d'images alors qu'ils étaient connectés aux capteurs BCI. Ces mêmes images ont ensuite été reconstruites sur un écran d'ordinateur. Les images reconstruites étaient super granuleuses mais compte tenu d'environ une décennie de temps de développement, cette preuve de concept nous permettra un jour d'abandonner notre caméra GoPro ou même d'enregistrer nos rêves.

    On va devenir des sorciers, dis-tu ?

    Au début, nous utiliserons des dispositifs externes pour BCI qui ressemblent à un casque ou à un serre-tête (années 2030) qui finiront par céder la place à des implants cérébraux (fin des années 2040). En fin de compte, ces appareils BCI connecteront nos esprits au cloud numérique et agiront plus tard comme un troisième hémisphère pour nos esprits. Ainsi, alors que nos hémisphères gauche et droit gèrent notre créativité et nos facultés logiques, ce nouvel hémisphère numérique alimenté par le cloud facilitera les capacités. où les humains sont souvent en deçà de leurs homologues de l'IA, à savoir la vitesse, la répétition et la précision.

    La BCI est la clé du domaine émergent de la neurotechnologie qui vise à fusionner nos esprits avec des machines pour acquérir les forces des deux mondes. C'est vrai tout le monde, d'ici les années 2030 et généralisés à la fin des années 2040, les humains utiliseront la BCI pour améliorer leur cerveau ainsi que pour communiquer entre eux et avec les animaux, contrôler les ordinateurs et l'électronique, partager des souvenirs et des rêves et naviguer sur le Web.

    Je sais ce que tu penses: Oui, ça s'est vite accéléré.

    Mais aussi passionnantes que soient toutes ces avancées de l'interface utilisateur, elles ne seront jamais possibles sans des avancées tout aussi passionnantes dans les logiciels et le matériel informatique. Ces percées sont ce que le reste de cette série Future of Computers explorera.

    Série L'avenir des ordinateurs

    L'avenir du développement logiciel : L'avenir des ordinateurs P2

    La révolution du stockage numérique : l'avenir des ordinateurs P3

    Une loi de Moore qui s'estompe pour susciter une refonte fondamentale des micropuces : l'avenir des ordinateurs P4

    Le cloud computing devient décentralisé : Future of Computers P5

    Pourquoi les pays se font-ils concurrence pour construire les plus gros supercalculateurs ? L'avenir des ordinateurs P6

    Comment les ordinateurs quantiques vont changer le monde : l'avenir des ordinateurs P7     

    Prochaine mise à jour prévue pour cette prévision

    2023-02-08

    Références prévisionnelles

    Les liens populaires et institutionnels suivants ont été référencés pour cette prévision :

    Les liens Quantumrun suivants ont été référencés pour cette prévision :