PaaS on the Edge – Warum, womit und wofür?

Autor: Ulrich Schäfer*

Ulrich Schäfer ist Lead Cloud Architect bei Atos Cloud Enterprise Solutions.

Die Nachfrage nach Edge-Lösungen steigt deutlich und bis 2025 wird die Edge das Cloud Computing in fast jedem Unternehmen ergänzen. Hierfür muss es möglich gemacht werden, Anwendungen auf Edge-Systemen ablauffähig und verwaltbar zu machen. Grundsätzlich ermöglicht die Flexibilität von Containern, Anwendungen auch auf Edge-Systemen ablaufen zu lassen. Kubernetes hilft dabei, diese Anwendungen bei Bedarf zu starten oder zu stoppen. Allerdings ist der Overhead der benötigten Management-Ressourcen für Edge-Geräte oft noch zu hoch.

Red Hat hat bei OpenShift in den letzten Jahren entscheidende Verbesserungen vorgenommen, um die volle Kubernetes-Fähigkeit auch für Edge-Geräte bereitzustellen und fördert so die Entwicklung zu mehr Cloud- und Edge-nativen Anwendungen erheblich.

Doch eine erfolgreiche Edge-Strategie erfordert mehr:

  • Anwendungen in einer Vielzahl von Disziplinen (zum Beispiel Automatisierung und Sicherheit) müssen schnell und konsistent bereitgestellt werden.
  • Anwendungen müssen auf vielen Umgebungen (Bare-Metal, virtuellen Maschinen und sogar Single-Board-Computern) ablauffähig sein. Nur dann ist es auch möglich, Edge Computing in einem Zug, auf einem Schiff, in einer Ölpipeline oder in einer Fabrikhalle zu betreiben.
  • DevOps-Teams müssen in der Lage sein, einmalig eine flexible Anwendung zu erstellen, die anschließend in jeder dieser Umgebungen eingesetzt werden kann. Und den Betriebsteams muss es möglich sein, ihre Verwaltung und die Sicherheitsmechanismen in großem Umfang effektiv zu automatisieren.

PaaS in die Edge bringen

  1. Be Resource-efficient – Red Hat HyperShift bietet die Kontrollebene eines vollständigen, konformen OpenShift-Clusters für einen weiteren reinen Worker-Only OpenShift-Cluster. So kann zum Beispiel ein OpenShift-Cluster mit Master-Nodes den Datenverkehr eines anderen OpenShift-Clusters in der Edge mit Worker-Knoten wie einem Raspberry Pi steuern. Auf diese Weise werden die Worker-Nodes von dem Verwaltungs-Overhead entlastet und die volle Kapazität bleibt für den fachlichen Workload erhalten.
  2. Build Once – Red Hat MicroShift hebt die Effizienz auf eine andere Ebene. Es handelt sich um eine von OpenShift abgeleitete Kubernetes-Distributionsfunktion mit kleinem Formfaktor, die speziell für Edge-Geräte entwickelt wurde. Unternehmen können jetzt Services in der Cloud mit OpenShift entwickeln und diese auf Edge-Geräte in der Produktion mit MicroShift ausrollen. So profitieren Nutzer von den Funktionen von Red Hat OpenShift, wie den APIs für die Sicherheit. Zugleich  wird damit der Ressourcenbedarf reduziert, indem unnötige APIs und Operatoren entfernt werden.
  3. Deploy Continuously – PaaS in der Edge ist aufgrund mangelnder Rechenressourcen auf dem Gerät begrenzt. Mit virtuellen Maschinen musste man die “Technologie” zu den Geräten bringen, was bislang einen großen manuellen Wartungsaufwand nach sich zog. Red Hat OpenShift on the Edge kombiniert nun DevSecOps und GitOps-Automatisierung und bringt alles in einem Edge-PaaS-Container-Stack zusammen.
  4. Operate Flexible – Mit mehr Geräten und rollierenden Updates, die von HyperShift gesteuert werden, ist die Ausfallsicherheit auf der Edge gewährleistet, sodass Probleme schnell erkannt werden können. Unternehmen können damit auch schnell skalieren, indem sie Ressourcen zwischen den Clustern verschieben oder weitere Geräte in OpenShift einbinden.

Anwendungsfall Transformation

Atos arbeitet weltweit seit mehr als sechs Jahren an Themen mit dem Fokus Red Hat OpenShift und zwar in vielen unterschiedlichen Branchen. Das Unternehmen verfügt über ein tiefgreifendes Fachwissen in den Bereichen Cloud, Edge, KI/ML sowie PaaS und bietet mit Atos Managed OpenShift (AMOS) einen Managed-PaaS-Service auch für Edge-Lösungen an.


Ein Praxisbeispiel: Ein europäischer Bahnbetreiber entwickelte zentrale “nicht sicherheitskritische” Anwendungen, beispielsweise für Schaffner, Zugbetreiber und Serviceportale. Diese wurden in der Vergangenheit von den Betreibern manuell auf die Server in den geparkten Zügen ausgerollt. Jetzt nutzt der Betreiber eine AMOS-Lösung auf Basis des bereits vorhandenen und auf Microsoft Azure gehosteten Red Hat OpenShift, um die Updates jederzeit over the air durchzuführen. Dafür wird Red Hat Advanced Cluster Management verwendet, um die Master- und Worker-Knoten in den Zügen zu verwalten, die alle via 5G verbunden sind. Diese Lösung bietet eine integrierte Plattform für alle Anwendungen (einschließlich Edge), ermöglicht kürzere Vorlaufzeiten, eine schnellere Fehlerbehebung durch die eingesetzte Containertechnologie und vermeidet den manuellen Rollout in geparkten Zügen.


Dies ist nur ein Anwendungsfall, aber die Technologie lässt sich auch in Stadien, im Gastgewerbe, in Smart Cities, auf Parkplätzen und im Straßenverkehr, in der Logistik und in der Fertigung einsetzen. Die Möglichkeiten einer solchen Transformation sind endlos.

Call to Action

Wenn Unternehmen über eine signifikante Edge-Infrastruktur verfügen und feststellen möchten, wie sie containerisierte Anwendungen in die Cloud oder an die Edge bringen können, sollten sie sich zunächst die folgenden Fragen stellen – don’t constrain your thinking!

  1. Welcher Prozess oder welche Anwendung innerhalb des Unternehmens war bisher nicht effizient oder wertschöpfend?
  2. Welche Edge-Anwendungsfälle könnten im Unternehmen stattfinden und wo?
  3. Was sind die wichtigsten Geschäftsfaktoren für Edge-Technologien in Bezug auf Service und Markteinführungszeit?

* Der Autor Ulrich Schäfer ist Lead Cloud Architect bei Atos Cloud Enterprise Solutions