Cloud computing blir decentraliserad: Future of Computers P5

BILDKREDIT: Quantumrun

Cloud computing blir decentraliserad: Future of Computers P5

    Det är en abstrakt term som smög sig in i vårt allmänna medvetande: molnet. Nuförtiden vet de flesta under 40 att det är något den moderna världen inte kan leva utan, att de personligen kan inte leva utan, men de flesta förstår knappt vad molnet egentligen är, än mindre den kommande revolutionen kommer att vända på det.

    I det här kapitlet i vår Future of Computers-serie kommer vi att granska vad molnet är, varför det är viktigt, trenderna som driver dess tillväxt och sedan makrotrenden som kommer att förändra det för alltid. Vänligt tips: Molnets framtid ligger i det förflutna.

    Vad är "molnet" egentligen?

    Innan vi utforskar de stora trenderna för att omdefiniera cloud computing, är det värt att ge en snabb sammanfattning av vad molnet faktiskt är för de mindre tekniskt besatta läsarna.

    Till att börja med består molnet av en server eller ett nätverk av servrar som i sig helt enkelt är en dator eller datorprogram som hanterar åtkomst till en centraliserad resurs (jag vet, bara med mig). Till exempel finns det privata servrar som hanterar ett intranät (ett internt nätverk av datorer) inom en given stor byggnad eller företag.

    Och så finns det kommersiella servrar som det moderna Internet fungerar på. Din persondator ansluter till den lokala telekomleverantörens internetserver som sedan ansluter dig till internet i stort, där du sedan kan interagera med vilken allmänt tillgänglig webbplats eller onlinetjänst som helst. Men bakom kulisserna interagerar du egentligen bara med servrarna hos de olika företagen som driver dessa webbplatser. Återigen, till exempel, när du besöker Google.com, skickar din dator en förfrågan via din lokala telekomserver till närmaste Google-server och ber om tillåtelse att få tillgång till dess tjänster; om den godkänns visas din dator med Googles startsida.

    Med andra ord är en server vilken applikation som helst som lyssnar efter förfrågningar över ett nätverk och sedan utför en åtgärd som svar på denna begäran.

    Så när människor hänvisar till molnet syftar de faktiskt på en grupp servrar där digital information och onlinetjänster kan lagras och nås centralt, istället för inuti enskilda datorer.

    Varför molnet blev centralt för den moderna informationsteknologisektorn

    Innan molnet skulle företag ha privatägda servrar för att driva sina interna nätverk och databaser. Vanligtvis innebar detta vanligtvis att köpa ny serverhårdvara, vänta på att den skulle komma, installera ett OS, ställa in hårdvaran i ett rack och sedan integrera den med ditt datacenter. Denna process krävde många lager av godkännande, en stor och dyr IT-avdelning, pågående uppgraderings- och underhållskostnader och kroniskt missade deadlines.

    Sedan i början av 2000-talet bestämde sig Amazon för att kommersialisera en ny tjänst som skulle göra det möjligt för företag att köra sina databaser och onlinetjänster på Amazons servrar. Detta innebar att företag kunde fortsätta att komma åt sina data och tjänster via webben, men det som sedan blev Amazon Web Services skulle ta på sig alla kostnader för uppgradering av hårdvara och mjukvara samt underhåll. Om ett företag behövde ytterligare datalagring eller serverbandbredd eller mjukvaruuppgraderingar för att hantera sina datoruppgifter, kunde de helt enkelt beställa de extra resurserna med några få klick istället för att gå igenom den månader långa manuella processen som beskrivs ovan.

    I själva verket gick vi från en decentraliserad serverhanteringsera där varje företag ägde och drev sitt eget servernätverk, till ett centraliserat ramverk där tusentals till miljoner företag sparar betydande kostnader genom att outsourca sin datalagring och datorinfrastruktur till ett mycket litet antal specialiserade "moln"-tjänsteplattformar. Från och med 2018 inkluderar de främsta konkurrenterna inom molntjänstsektorn Amazon Web Services, Microsoft Azure och Google Cloud.

    Vad driver molnets fortsatta tillväxt

    Från och med 2018 finns över 75 procent av världens data i molnet, med långt över 90 procent av organisationer som nu också driver en del till alla sina tjänster på molnet – detta inkluderar alla från onlinejättar som Netflix till statliga organisationer, som CIA. Men denna förändring beror inte bara på kostnadsbesparingar, överlägsen service och enkelhet, det finns en rad andra faktorer som driver molnets tillväxt – fyra sådana faktorer inkluderar:

    Programvara som en tjänst (SaaS). Förutom att lägga ut kostnaderna för att lagra big data, erbjuds fler och fler företagstjänster exklusivt över webben. Till exempel använder företag onlinetjänster som Salesforce.com för att hantera alla sina behov av försäljning och kundrelationshantering, och lagrar därigenom all sin mest värdefulla kundförsäljningsdata i Salesforces datacenter (molnservrar).

    Liknande tjänster har skapats för att hantera ett företags interna kommunikation, e-postleverans, mänskliga resurser, logistik och mer – vilket gör det möjligt för företag att lägga ut alla affärsfunktioner som inte är deras kärnkompetens till lågkostnadsleverantörer som är tillgängliga enbart via molnet. I huvudsak driver denna trend företag från en centraliserad till en decentraliserad verksamhetsmodell som vanligtvis är mer effektiv och kostnadseffektiv.

    Stora data. Precis som datorer konsekvent blir exponentiellt kraftfullare, så ökar också mängden data som vårt globala samhälle genererar år för år. Vi går in i big datas tidsålder där allt mäts, allt lagras och ingenting raderas.

    Detta berg av data utgör både ett problem och en möjlighet. Problemet är den fysiska kostnaden för att lagra allt större mängder data, vilket påskyndar den ovan nämnda pushen för att flytta data till molnet. Samtidigt ligger möjligheten i att använda kraftfulla superdatorer och avancerad programvara för att upptäcka lönsamma mönster inne i nämnda databerg – en punkt som diskuteras nedan.

    Sakernas Internet. Bland de största bidragsgivarna till denna tsunami av big data är Internet of Things (IoT). Först förklaras i vår Sakernas Internet kapitel i vårt Internets framtid serien är IoT ett nätverk designat för att ansluta fysiska objekt till webben, för att "ge liv" till livlösa föremål genom att tillåta dem att dela sin användningsdata över webben för att möjliggöra en rad nya applikationer.  

    För att göra detta kommer företag att börja placera miniatyr-till-mikroskopiska sensorer på eller i varje tillverkad produkt, i maskinerna som tillverkar dessa tillverkade produkter och (i vissa fall) till och med i råvarorna som matas in i maskinerna som gör dessa tillverkade. Produkter.

    Alla dessa uppkopplade saker kommer att skapa en konstant och växande ström av data som på samma sätt kommer att skapa en konstant efterfrågan på datalagring som bara molntjänstleverantörer kan erbjuda överkomligt och i stor skala.

    Stor datoranvändning. Slutligen, som antytts ovan, är all denna datainsamling värdelös om vi inte har datorkraft att omvandla den till värdefulla insikter. Och även här spelar molnet in.

    De flesta företag har inte budgeten för att köpa superdatorer för internt bruk, än mindre budgeten och expertis för att uppgradera dem årligen, och sedan köpa många extra superdatorer när deras behov av dataknäppning växer. Det är här molntjänstföretag som Amazon, Google och Microsoft använder sina stordriftsfördelar för att göra det möjligt för mindre företag att få tillgång till både obegränsad datalagring och (nästan) obegränsad data-crunching-tjänster vid behov.  

    Som ett resultat kan olika organisationer göra fantastiska bedrifter. Google använder sitt berg av sökmotordata för att inte bara ge dig de bästa svaren på dina vardagliga frågor, utan för att visa dig annonser som är skräddarsydda efter dina intressen. Uber använder sitt berg av trafik- och förardata för att generera en vinst på undertjänade pendlare. Välj polisavdelningar världen över testar ny programvara för att spåra olika trafik-, video- och sociala medier-flöden för att inte bara lokalisera brottslingar, utan förutsäga när och var brottslighet sannolikt kommer att inträffa, Minority Report-stil.

    Okej, så nu när vi har fått grunderna ur vägen, låt oss prata om molnets framtid.

    Molnet kommer att bli serverlöst

    På dagens molnmarknad kan företag lägga till eller subtrahera molnlagring/datorkapacitet efter behov, ja, typ. Ofta, särskilt för större organisationer, är det enkelt att uppdatera dina molnlagrings-/datorkrav, men det är inte i realtid; resultatet är att även om du behövde 100 GB extra minne under en timme, kan det sluta med att du måste hyra ut den extra kapaciteten under en halv dag. Inte den mest effektiva resursfördelningen.

    Med skiftet mot ett serverlöst moln blir servermaskiner helt "virtualiserade" så att företag kan hyra ut serverkapacitet dynamiskt (mer exakt). Så med det föregående exemplet, om du behövde 100 GB extra minne under en timme, skulle du få den kapaciteten och bara debiteras för den timmen. Ingen mer bortkastad resursallokering.

    Men det finns en ännu större trend vid horisonten.

    Molnet blir decentraliserat

    Kommer du ihåg tidigare när vi nämnde IoT, tekniken som är redo att göra många livlösa föremål "smarta"? Denna teknik får sällskap av ökningen av avancerade robotar, autonoma fordon (AVs, diskuterade i vår Transportens framtid serie) och förstärkt verklighet (AR), som alla kommer att tänja på molnets gränser. Varför?

    Om en förarlös bil kör genom en korsning och en person av misstag går in på gatan framför den, måste bilen fatta beslutet att svänga eller bromsa inom millisekunder; det har inte råd att spendera några sekunder på att skicka personens bild till molnet och vänta på att molnet ska skicka tillbaka bromskommandot. Att tillverka robotar som arbetar med 10 gånger hastigheten för människor på löpande band kan inte vänta på tillstånd att stanna om en människa av misstag snubblar framför den. Och om du bär framtida augmented reality-glasögon skulle du bli förbannad om din Pokeball inte laddades tillräckligt snabbt för att fånga Pikachu innan den sprang iväg.

    Faran i dessa scenarier är vad lekmannen hänvisar till som "fördröjning", men i mer jargong hänvisas till som "latens". För ett stort antal av de viktigaste framtida teknologierna som kommer online under de kommande ett eller två decennierna, kan till och med en millisekunds latens göra dessa tekniker osäkra och oanvändbara.

    Som ett resultat ligger framtiden för datoranvändning (ironiskt nog) i det förflutna.

    På 1960-70-talet dominerade stordatorn, gigantiska datorer som centraliserade datoranvändning för affärsbruk. Sedan på 1980-2000-talet kom persondatorer på scenen, decentraliserade och demokratiserade datorer för massorna. Sedan mellan 2005-2020 blev Internet mainstream, följt kort efter det av mobiltelefonens introduktion, vilket gjorde det möjligt för individer att få tillgång till ett obegränsat utbud av onlineerbjudanden som endast kunde erbjudas ekonomiskt genom att centralisera digitala tjänster i molnet.

    Och snart under 2020-talet kommer IoT, AVs, robotar, AR och andra sådana nästa generations "edge-teknologier" att svänga pendeln tillbaka mot decentralisering. Detta beror på att för att dessa tekniker ska fungera måste de ha datorkraft och lagringskapacitet för att förstå sin omgivning och reagera i realtid utan ett konstant beroende av molnet.

    Växla tillbaka till AV-exemplet: Detta innebär en framtid där motorvägar är laddade med superdatorer i form av AV:er, som var och en självständigt samlar in enorma mängder plats-, vision-, temperatur-, gravitations- och accelerationsdata för att köra säkert och sedan dela dessa data med AV:erna runt dem så att de kör säkrare kollektivt, och sedan slutligen dela denna data tillbaka till molnet för att styra alla AV:er i staden för att effektivt reglera trafiken. I det här scenariot sker bearbetning och beslutsfattande på marknivå, medan inlärning och långsiktig datalagring sker i molnet.

     

    Sammantaget kommer dessa edge computing-behov att stimulera en växande efterfrågan på allt mer kraftfulla datorer och digitala lagringsenheter. Och som alltid är fallet, när datorkraften ökar, växer tillämpningarna för nämnda datorkraft, vilket leder till ökad användning och efterfrågan, vilket sedan leder till en sänkning av priset på grund av stordriftsfördelar, och slutligen resulterar i en värld som kommer att konsumeras av data. Framtiden tillhör med andra ord IT-avdelningen, så var snäll mot dem.

    Denna växande efterfrågan på datorkraft är också anledningen till att vi avslutar den här serien med en diskussion om superdatorer, och följs av den kommande revolutionen som är kvantdatorn. Läs vidare för att lära dig mer.

    Future of Computers-serien

    Nya användargränssnitt för att omdefiniera mänskligheten: Future of computers P1

    Future of software development: Future of computers P2

    Den digitala lagringsrevolutionen: Future of Computers P3

    En bleknande Moores lag för att väcka grundläggande omtanke om mikrochips: Future of Computers P4

    Varför tävlar länder om att bygga de största superdatorerna? Datorernas framtid P6

    Hur Quantum-datorer kommer att förändra världen: Future of Computers P7     

     

    Nästa planerade uppdatering för denna prognos

    2023-02-09