Le cloud computing devient décentralisé : Future of Computers P5

CRÉDIT D'IMAGE: Course quantique

Le cloud computing devient décentralisé : Future of Computers P5

    C'est un terme abstrait qui s'est glissé dans notre conscience publique : le cloud. De nos jours, la plupart des gens de moins de 40 ans savent que c'est quelque chose dont le monde moderne ne peut se passer, qu'ils personnellement ne peut pas vivre sans, mais la plupart des gens comprennent à peine ce qu'est vraiment le cloud, sans parler de la révolution à venir qui va le renverser.

    Dans ce chapitre de notre série Future of Computers, nous passerons en revue ce qu'est le cloud, pourquoi il est important, les tendances qui poussent sa croissance, puis la tendance macro qui le changera à jamais. Conseil amical : L'avenir du cloud se situe dans le passé.

    Qu'est-ce que le "nuage", vraiment ?

    Avant d'explorer les grandes tendances qui redéfinissent le cloud computing, il est utile de proposer un bref récapitulatif de ce qu'est réellement le cloud pour les lecteurs moins obsédés par la technologie.

    Pour commencer, le cloud est composé d'un serveur ou d'un réseau de serveurs qui sont eux-mêmes simplement un ordinateur ou un programme informatique qui gère l'accès à une ressource centralisée (je sais, mais avec moi). Par exemple, il existe des serveurs privés qui gèrent un intranet (un réseau interne d'ordinateurs) au sein d'un grand bâtiment ou d'une entreprise donnée.

    Et puis il y a les serveurs commerciaux sur lesquels l'Internet moderne fonctionne. Votre ordinateur personnel se connecte au serveur Internet du fournisseur de télécommunications local qui vous connecte ensuite à Internet dans son ensemble, où vous pouvez ensuite interagir avec n'importe quel site Web ou service en ligne accessible au public. Mais dans les coulisses, vous ne faites qu'interagir avec les serveurs des différentes sociétés qui gèrent ces sites Web. Encore une fois, par exemple, lorsque vous visitez Google.com, votre ordinateur envoie une demande via votre serveur de télécommunications local au serveur Google le plus proche demandant l'autorisation d'accéder à ses services ; si elle est approuvée, votre ordinateur est présenté avec la page d'accueil de Google.

    En d'autres termes, un serveur est toute application qui écoute les requêtes sur un réseau, puis exécute une action en réponse à ladite requête.

    Ainsi, lorsque les gens font référence au cloud, ils font en fait référence à un groupe de serveurs où les informations numériques et les services en ligne peuvent être stockés et accessibles de manière centralisée, plutôt qu'à l'intérieur d'ordinateurs individuels.

    Pourquoi le cloud est devenu central dans le secteur moderne des technologies de l'information

    Avant le cloud, les entreprises disposaient de serveurs privés pour gérer leurs réseaux internes et leurs bases de données. En règle générale, cela signifiait généralement acheter du nouveau matériel de serveur, attendre qu'il arrive, installer un système d'exploitation, configurer le matériel dans un rack, puis l'intégrer à votre centre de données. Ce processus nécessitait de nombreuses couches d'approbation, un service informatique important et coûteux, des coûts de mise à niveau et de maintenance continus et des délais régulièrement manqués.

    Puis au début des années 2000, Amazon a décidé de commercialiser un nouveau service qui permettrait aux entreprises de faire tourner leurs bases de données et leurs services en ligne sur les serveurs d'Amazon. Cela signifiait que les entreprises pouvaient continuer à accéder à leurs données et services via le Web, mais ce qui devenait alors Amazon Web Services prendrait en charge tous les coûts de mise à niveau et de maintenance du matériel et des logiciels. Si une entreprise avait besoin de stockage de données supplémentaire ou de bande passante de serveur ou de mises à niveau logicielles pour gérer ses tâches informatiques, elle pouvait simplement commander les ressources supplémentaires en quelques clics au lieu de suivre le processus manuel de plusieurs mois décrit ci-dessus.

    En effet, nous sommes passés d'une ère de gestion de serveurs décentralisée où chaque entreprise possédait et exploitait son propre réseau de serveurs, à un cadre centralisé où des milliers à des millions d'entreprises économisent des coûts importants en externalisant leur stockage de données et leur infrastructure informatique à un très petit nombre. de plates-formes de services « cloud » spécialisées. Depuis 2018, les principaux concurrents du secteur des services cloud sont Amazon Web Services, Microsoft Azure et Google Cloud.

    Ce qui motive la croissance continue du cloud

    En 2018, plus de 75 % des données mondiales sont hébergées dans le cloud, avec bien plus de 90 pour cent des organisations exploitent désormais une partie ou la totalité de leurs services sur le cloud également, y compris tous les géants en ligne tels que Netflix aux organismes gouvernementaux, comme le CIA. Mais ce changement n'est pas seulement dû aux économies de coûts, à un service supérieur et à la simplicité, il existe une gamme d'autres facteurs qui stimulent la croissance du cloud, dont quatre :

    Software as a Service (SaaS). Outre l'externalisation des coûts de stockage des mégadonnées, de plus en plus de services aux entreprises sont offerts exclusivement sur le Web. Par exemple, les entreprises utilisent des services en ligne comme Salesforce.com pour gérer tous leurs besoins de gestion des ventes et de la relation client, stockant ainsi toutes leurs données de vente les plus précieuses sur les clients dans les centres de données de Salesforce (serveurs cloud).

    Des services similaires ont été créés pour gérer les communications internes d'une entreprise, la livraison des e-mails, les ressources humaines, la logistique, etc. Essentiellement, cette tendance pousse les entreprises d'un modèle d'exploitation centralisé à un modèle d'exploitation décentralisé qui est généralement plus efficace et plus rentable.

    Big données. Tout comme les ordinateurs deviennent constamment plus puissants, la quantité de données que notre société mondiale génère d'année en année augmente également. Nous entrons dans l'ère du big data où tout est mesuré, tout est stocké et rien n'est jamais supprimé.

    Cette montagne de données présente à la fois un problème et une opportunité. Le problème est le coût physique du stockage de quantités toujours plus importantes de données, accélérant la poussée susmentionnée pour déplacer les données vers le cloud. Pendant ce temps, l'opportunité réside dans l'utilisation de superordinateurs puissants et de logiciels avancés pour découvrir des modèles rentables à l'intérieur de ladite montagne de données - un point discuté ci-dessous.

    Internet des Objets (IoT). L'Internet des objets (IoT) est l'un des principaux contributeurs de ce tsunami de mégadonnées. D'abord expliqué dans notre Internet des Objets (IoT) chapitre de notre L'avenir d'Internet série, l'IoT est un réseau conçu pour connecter des objets physiques au Web, pour "donner vie" à des objets inanimés en leur permettant de partager leurs données d'utilisation sur le Web pour permettre une gamme de nouvelles applications.  

    Pour ce faire, les entreprises commenceront à placer des capteurs miniatures à microscopiques sur ou dans chaque produit manufacturé, dans les machines qui fabriquent ces produits manufacturés et (dans certains cas) même dans les matières premières qui alimentent les machines qui fabriquent ces produits manufacturés. des produits.

    Toutes ces choses connectées créeront un flux de données constant et croissant qui créera également une demande constante de stockage de données que seuls les fournisseurs de services cloud peuvent offrir à un prix abordable et à grande échelle.

    Gros calcul. Enfin, comme indiqué ci-dessus, toute cette collecte de données est inutile à moins que nous ayons la puissance de calcul pour la transformer en informations précieuses. Et là aussi, le cloud entre en jeu.

    La plupart des entreprises n'ont pas le budget pour acheter des supercalculateurs à usage interne, sans parler du budget et de l'expertise nécessaires pour les mettre à niveau chaque année, puis achètent de nombreux supercalculateurs supplémentaires à mesure que leurs besoins de traitement des données augmentent. C'est là que les sociétés de services cloud comme Amazon, Google et Microsoft utilisent leurs économies d'échelle pour permettre aux petites entreprises d'accéder à la fois à un stockage de données illimité et à des services de traitement de données (presque) illimités selon les besoins.  

    En conséquence, diverses organisations peuvent accomplir des exploits incroyables. Google utilise sa montagne de données de moteur de recherche non seulement pour vous offrir les meilleures réponses à vos questions quotidiennes, mais aussi pour vous proposer des publicités adaptées à vos centres d'intérêt. Uber utilise sa montagne de données sur le trafic et les conducteurs pour générer un profit sur les navetteurs mal desservis. Sélectionner les services de police dans le monde entier testent de nouveaux logiciels pour suivre divers flux de trafic, de vidéos et de médias sociaux afin non seulement de localiser les criminels, mais aussi de prédire quand et où le crime est susceptible de se produire, Minority Report-style.

    Bon, maintenant que nous avons réglé les bases, parlons de l'avenir du cloud.

    Le cloud deviendra sans serveur

    Dans le marché actuel du cloud, les entreprises peuvent ajouter ou soustraire de la capacité de stockage/informatique dans le cloud selon leurs besoins, enfin, en quelque sorte. Souvent, en particulier pour les grandes organisations, la mise à jour de vos besoins de stockage/informatique dans le cloud est facile, mais ce n'est pas en temps réel ; le résultat est que même si vous avez besoin de 100 Go de mémoire supplémentaires pendant une heure, vous devrez peut-être louer cette capacité supplémentaire pour une demi-journée. Pas la répartition la plus efficace des ressources.

    Avec le passage à un cloud sans serveur, les machines serveurs deviennent entièrement « virtualisées » afin que les entreprises puissent louer la capacité du serveur de manière dynamique (plus précisément). Ainsi, en utilisant l'exemple précédent, si vous avez besoin de 100 Go de mémoire supplémentaires pendant une heure, vous obtiendrez cette capacité et serez facturé uniquement pour cette heure. Plus d'allocation de ressources gaspillée.

    Mais il y a une tendance encore plus grande à l'horizon.

    Le cloud devient décentralisé

    Vous vous souvenez plus tôt lorsque nous avons mentionné l'IdO, la technologie qui est prête à de nombreux objets inanimés "intelligents" ? Cette technologie est rejointe par l'essor des robots avancés, des véhicules autonomes (AV, dont il est question dans notre L'avenir des transports série) et la réalité augmentée (AR), qui repousseront tous les limites du cloud. Pourquoi?

    Si une voiture sans conducteur traverse une intersection et qu'une personne marche accidentellement dans la rue devant elle, la voiture doit prendre la décision de dévier ou d'appliquer les freins en quelques millisecondes ; il ne peut pas se permettre de perdre des secondes à envoyer l'image de la personne dans le cloud et d'attendre que le cloud renvoie la commande de freinage. Les robots de fabrication travaillant à 10 fois la vitesse des humains sur la chaîne de montage ne peuvent pas attendre la permission de s'arrêter si un humain trébuche accidentellement devant. Et si vous portez de futures lunettes de réalité augmentée, vous seriez énervé si votre Pokeball ne se chargeait pas assez vite pour capturer le Pikachu avant qu'il ne s'enfuie.

    Le danger dans ces scénarios est ce que le profane appelle « décalage », mais dans un langage plus jargon, il est appelé « latence ». Pour un grand nombre des technologies futures les plus importantes qui seront mises en ligne au cours des une ou deux prochaines décennies, même une milliseconde de latence peut rendre ces technologies dangereuses et inutilisables.

    Par conséquent, l'avenir de l'informatique appartient (ironiquement) au passé.

    Dans les années 1960-70, l'ordinateur central dominait, des ordinateurs géants qui centralisaient l'informatique à des fins professionnelles. Puis, dans les années 1980-2000, les ordinateurs personnels sont entrés en scène, décentralisant et démocratisant les ordinateurs pour les masses. Puis, entre 2005 et 2020, Internet s'est généralisé, suivi peu de temps après par l'introduction du téléphone mobile, permettant aux particuliers d'accéder à une gamme illimitée d'offres en ligne qui ne pouvaient être proposées économiquement qu'en centralisant les services numériques dans le cloud.

    Et bientôt, au cours des années 2020, l'IoT, les AV, les robots, la RA et d'autres « technologies de pointe » de nouvelle génération ramèneront le pendule vers la décentralisation. En effet, pour que ces technologies fonctionnent, elles devront disposer de la puissance de calcul et de la capacité de stockage nécessaires pour comprendre leur environnement et réagir en temps réel sans dépendre constamment du cloud.

    Revenons à l'exemple AV : cela signifie un avenir où les autoroutes sont chargées de superordinateurs sous la forme d'AV, chacun collectant indépendamment de grandes quantités de données de localisation, de vision, de température, de gravité et d'accélération pour conduire en toute sécurité, puis partageant ces données avec les AV autour d'eux afin qu'ils conduisent collectivement de manière plus sûre, puis enfin, en partageant ces données vers le cloud pour diriger tous les AV de la ville afin de réguler efficacement le trafic. Dans ce scénario, le traitement et la prise de décision se déroulent au niveau du sol, tandis que l'apprentissage et le stockage des données à plus long terme se déroulent dans le cloud.

     

    Dans l'ensemble, ces besoins informatiques de pointe stimuleront une demande croissante de dispositifs informatiques et de stockage numérique toujours plus puissants. Et comme c'est toujours le cas, à mesure que la puissance de calcul augmente, les applications de ladite puissance de calcul se développent, entraînant une utilisation et une demande accrues, ce qui entraîne ensuite une réduction des prix en raison des économies d'échelle, et aboutit finalement à un monde qui seront consommés par les données. En d'autres termes, l'avenir appartient au service informatique, alors soyez gentil avec eux.

    Cette demande croissante de puissance de calcul est également la raison pour laquelle nous terminons cette série par une discussion sur les supercalculateurs, suivie de la révolution à venir qu'est l'ordinateur quantique. Continuez à lire pour en savoir plus.

    Série L'avenir des ordinateurs

    Interfaces utilisateur émergentes pour redéfinir l'humanité : l'avenir des ordinateurs P1

    L'avenir du développement logiciel : L'avenir des ordinateurs P2

    La révolution du stockage numérique : l'avenir des ordinateurs P3

    Une loi de Moore qui s'estompe pour susciter une refonte fondamentale des micropuces : l'avenir des ordinateurs P4

    Pourquoi les pays se font-ils concurrence pour construire les plus gros supercalculateurs ? L'avenir des ordinateurs P6

    Comment les ordinateurs quantiques vont changer le monde : l'avenir des ordinateurs P7     

     

    Prochaine mise à jour prévue pour cette prévision

    2023-02-09