Serverless Edge: Dienste direkt neben dem Endbenutzer bereitstellen

IMAGE CREDIT:
Bildnachweis
iStock

Serverless Edge: Dienste direkt neben dem Endbenutzer bereitstellen

Serverless Edge: Dienste direkt neben dem Endbenutzer bereitstellen

Untertiteltext
Die serverlose Edge-Technologie revolutioniert Cloud-basierte Plattformen, indem sie Netzwerke dorthin bringt, wo sich die Benutzer befinden, was zu schnelleren Anwendungen und Diensten führt.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 23. März 2023

    Zusammenfassung der Einblicke

    Seit den späten 2010er Jahren haben Anbieter von serverlosen Plattformen zunehmend auf Edge-Computing-Paradigmen umgestellt, um die Latenz (die Zeit, die Signale benötigen, um Geräte zu erreichen) zu verwalten, indem sie dem Entwickler anstelle des Cloud-Dienstes eine gewisse Kontrolle zurückgeben. Der Erfolg von Edge Computing ist zu einem großen Teil auf die Fortschritte und Popularität von Content Distribution Networks (CDNs) und globalen Infrastrukturen zurückzuführen.

    Serverloser Edge-Kontext

    Daten, die sich „on the edge“ befinden, werden typischerweise in CDNs gespeichert. Diese Netzwerke speichern Daten in einem stärker lokalisierten Rechenzentrum näher am Benutzer. Zwar gibt es noch keine klare Definition von Serverless Edge, aber die Prämisse ist, dass Daten zunehmend verteilt und flexibler für den Nutzer gespeichert werden. 

    Edge-Funktionen werden immer beliebter, da serverlose (oder cloudbasierte Dienste) einige Einschränkungen haben, wie Latenz und Beobachtbarkeit. Obwohl Serverless das Erstellen und Bereitstellen von Cloud-Anwendungen ziemlich einfach macht, versucht Edge Computing, sie noch besser zu machen. Das Entwicklererlebnis wird durch Serverless verbessert, da Cloud-Anbieter die Verwaltung von Rechenressourcen übernehmen. Obwohl diese Methode die Front-End-Entwicklung rationalisiert, schränkt sie auch die Kontrolle und den Einblick in die Systeminfrastruktur ein, die durch Edge-Computing adressiert werden können.

    Je mehr Arbeit ein Edge-Server bewältigen kann, desto weniger Arbeit muss der Ursprungsserver leisten. Darüber hinaus ist die Gesamtverarbeitungsleistung des Netzwerks um ein Vielfaches höher als die des Ursprungsservers allein. Daher ist es sinnvoll, Aufgaben an nachgelagerte Edge-Funktionen auszulagern und Zeit auf dem Ursprungsserver für spezialisierte Backend-Aktivitäten freizugeben.

    Das am besten anwendbare moderne Beispiel ist Lambda@Edge von Amazon Web Services (AWS). Der Code wird jetzt näher am Benutzer ausgeführt, wodurch die Latenz verringert wird. Kunden müssen sich nicht um die Infrastruktur kümmern und zahlen nur ihre Rechenzeit. 

    Störende Wirkung

    Eine neue Serverless-Welle ist im Gegensatz zu früheren Technologien bereit, Endbenutzern und Entwicklern zugute zu kommen. Die anpassungsfähige und dezentralisierte Natur von serverlosen Apps macht sie in der Lage, an Orten bereitgestellt zu werden, die zuvor unerreichbar waren: am Edge. Edge Serverless ermöglicht die Ausführung serverloser Apps auf Geräten weltweit und bietet allen Benutzern die gleiche Erfahrung, unabhängig davon, wie nahe sie an der zentralen Cloud sind.

    Beispielsweise läuft Compute@Edge des Cloud-Plattformunternehmens Fastly Solutions an 72 Standorten gleichzeitig, so nah wie möglich an den Endnutzern. Serverlose Edge-Architekturen ermöglichen das lokale Hosten von Apps und bieten gleichzeitig die Leistung des zentralen Cloud-Computing. Die Apps werden in der Edge-Cloud des Unternehmens ausgeführt, sodass sie reaktionsschnell genug sind, um bei jedem Tastendruck eine Roundtrip-Anfrage zu stellen. Diese Art von Interaktivität ist mit einer zentralen Cloud-Struktur nicht zu erreichen.

    Pay-per-Use scheint das aufkommende Geschäftsmodell im serverlosen Edge-Bereich zu sein. Insbesondere IoT-Anwendungen (Internet of Things) können eine unvorhersehbare Arbeitslast haben, was mit statischer Bereitstellung nicht gut funktioniert. Statische Containerbereitstellung berechnet Benutzern auch dann Gebühren, wenn ihre Anwendung im Leerlauf ist. Dieser Mechanismus kann ein Problem darstellen, wenn die Anwendung viel zu tun hat. Die einzige Möglichkeit, dieses Problem zu lösen, besteht darin, mehr Kapazität hinzuzufügen, aber es kann teuer sein. Im Gegensatz dazu basieren die Kosten bei Serverless Edge auf tatsächlich ausgelösten Ereignissen, wie z. B. einer dedizierten Ressource und wie oft eine Funktion aufgerufen wird. 

    Auswirkungen von Serverless Edge

    Weitere Auswirkungen von Serverless Edge können sein: 

    • Medien- und inhaltsbasierte Unternehmen können Inhalte ohne Zwischenspeicherung bereitstellen, die zum schnelleren Laden in Caches gespeichert werden können.
    • Programmentwickler können Codes und Anwendungen bei jeder Änderung schnell testen, was zu schnelleren Produkteinführungen führt. 
    • As-a-Service-Unternehmen (z. B. Server-as-a-Service, Product-as-a-Service, Software-as-a-Service), die ihren Endbenutzern eine bessere Konnektivität sowie bessere Preisoptionen bieten.
    • Einfacher Zugriff auf Open-Source-Komponenten und -Tools, die eine schnellere Erstellung von Modulen, Systemen und Anwendungen ermöglichen.
    • Echtzeit-Updates und sofortiger Zugriff auf Daten, die für Smart-City-Technologien wie Verkehrsüberwachung von entscheidender Bedeutung sind.

    Fragen zu berücksichtigen

    • Was sind die anderen potenziellen Vorteile von Diensten, die näher am Benutzer sind?
    • Wenn Sie ein Softwareentwickler sind, wie wird Serverless Edge die Ausführung Ihrer Aufgaben verbessern?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    MR Tillmans Blog Von serverlos bis Edge