Zehn Jahre Cloud Computing im Rückblick

Von Matthias Pfützner*

Matthias Pfützner lässt die Geschichte des Cloud Computing kurz Revue passieren und wirft einen Blick in die Zukunft.

Seit mehr als acht Jahren bin ich inzwischen bei Red Hat, doch auch schon zuvor, bei Sun Microsystems, habe ich mich lange und intensiv mit der Cloud beschäftigt. Ein guter Zeitpunkt, um sich die Entwicklung des Cloud Computings in der letzten Dekade etwas näher anzuschauen. Was die Cloud ist, muss man heute wohl nicht mehr groß erklären, also fangen wir damit an, wie ich zur Cloud gekommen und Cloud Solution Architect geworden bin. Ich hatte nie viel fürs Programmieren und die Entwicklung von Anwendungen übrig, obwohl es vielleicht sogar Code von mir gibt, von dem noch Teile beim Münchner Flughafen laufen. Ich war und bin eher ein Administrator, der sich um große Infrastrukturen kümmert. Deshalb war für mich an der Cloud immer interessanter, wie man sie aufbaut und betreibt, und weniger wie man sie nutzt. Für mich hat sie sich ganz natürlich aus Hosting und Virtualisierung, Skalierbarkeit und automatischer Bereitstellung von Ressourcen entwickelt – dennoch war es sehr interessant zu beobachten, wie die großen Clouds entstanden sind.

Die Anfänge der Hyperscaler

Bei Sun und während der beiden Jahre, die ich dort noch unter dem Oracle-Dach verbrachte, beschäftigte ich mich vor allem mit Rechenzentren – ich war lange ein sogenannter Data Center Ambassador, von denen es bei Sun nur 70 weltweit gab. In dieser Rolle waren meine wichtigsten Themen SunCluster und „N1“, also alles, was man braucht, um Infrastruktur aufzubauen, zu verwalten und zu betreiben, sprich: zu automatisieren. N1 bedeutete: „Verwalte N Systeme, als wären sie ein einziges.“ Man könnte sagen, N1 war Suns Idee vom Cloud Computing, doch Oracle entschied sich, diesen Ansatz nicht weiterzuverfolgen.

Bereits zuvor war mit AWS der erste große Cloud-Provider gestartet. Amazon fand damals, es sei eine gute Idee, die Virtualisierung, die VMware für einzelne Systeme on-premises erledigte, auf ein neues Level zu heben – das Ergebnis war Infrastructure as a Services (IaaS), worauf im Laufe der Zeit weitere Services aufbauten. Google dagegen nahm einen anderen Markt ins Visier und schuf eine Platform as a Service (PaaS), auf der man verschiedene Komponenten anbot, aus denen Entwickler komplexere Service bauen konnten.

Meiner Wahrnehmung nach war Amazon mit seinem Ansatz deutlich erfolgreicher, weil es einen größeren Anteil der Anwendungsfälle dieser Tage abdeckte. Administratoren wussten, wie man ein Betriebssystem installiert, wie man es pflegt und wie man Software darauf installiert. Google fand hingegen nicht so viele Entwickler und bot daher schließlich auch IaaS an. Amazon wiederum ergänzte sein Angebot um PaaS-Komponenten, sodass die beiden Clouds mittlerweile ähnliche Funktionen bieten.

Microsoft kam mit seiner Azure Cloud erst spät ins Spiel, aber das ist typisch Microsoft – Stichwort Internet Explorer. Das Unternehmen lässt andere gerne vorangehen, schaut sich alles an und steigt ein, wenn der Weg geebnet ist, sodass man Fehler und Fallstricke vermeiden kann. Fast über Nacht baute Microsoft ein IaaS- und PaaS-Angebot auf. Die bereits vorhandenen Komponenten wie Hyper-V (als IaaS) und .NET (als PaaS) in einem Cloud-Service bereitzustellen, war ein riesiger Erfolg, was sich auch daran zeigt, dass Azure heute die Nummer zwei nach Amazon ist.

 

Die Cloud im eigenen Rechenzentrum

Als ich dann von Sun zu Red Hat wechselte, war ich auf der Bühne angekommen, auf der ich wirklich spielen wollte. Aber was hatte Open Source mit Cloud Computing zu tun und warum sollte sich ein Anbieter von Open-Source-Enterprise-Software für die Cloud interessieren? Das lag an der Private Cloud. Die entstand aus der Idee, dass Dinge, die in der Public Cloud verfügbar waren, auch im eigenen Rechenzentrum verfügbar sein sollten, und dass aus Gründen des Datenschutzes nicht alles in die Public Cloud gehört. Zudem wurde den Unternehmen langsam bewusst, dass durch die Cloud ihre Kontrolle über die interne IT schwindet und Schatten-IT entsteht – weil die Menschen sich an „as a Service“ gewöhnt hatten und neue Lösungen schnell einführen wollten. Interne Service-Provider mussten daher „cloud-ready“ werden und cloudähnliche Services anbieten, und dafür brauchten sie Lösungen für den Aufbau interner Clouds.

In guter Open-Source-Tradition taten sich einige Unternehmen zusammen und begannen mit der Entwicklung von OpenStack. Heute ist OpenStack eines der größten Open-Source-Projekte und kommt als De-facto-Standard in unzähligen Rechenzentren zum Einsatz. Allein die Tatsache, dass Microsoft seine On-Premises-Version von Azure „AzureStack“ nennt, unterstreicht die Bedeutung von OpenStack. Allerdings war OpenStack nur der IaaS-Part der eigenen Cloud, es fehlte noch eine PaaS-Lösung. Die sollte eigentlich Magnum sein, ein Projekt innerhalb von OpenStack, das allerdings nie richtig in Fahrt kam. Einer der Gründe dafür war Docker. Docker machte es möglich, Anwendungsartefakte in Container zu verpacken und einfach bereitzustellen, zu bewegen und zu verwalten. Mit der Zeit etablierte sich Kubernetes als Orchestrierungsplattform für Container – die darauf basierende Lösung bei Red Hat ist OpenShift.

Damit standen die beiden Basistechnologien für Private Clouds bereit, und Unternehmen brauchten nur noch das Wissen, wie man damit cloudfähige Software entwickelt. Bei Red Hat gibt es dafür die Red Hat Innovation Labs, die Unternehmen helfen, cloud-ready zu werden.

Das nächste Jahrzehnt

In den letzten zehn Jahren habe ich als Cloud Solution Architect vielen IT-Abteilungen dabei geholfen, die Vorteile von OpenStack und OpenShift zu verstehen und die Tools so einzusetzen, dass sie erfolgreiche Cloud-Provider für interne Kunden werden. Inzwischen sind weitere Komponenten wie Red Hat Ansible Automation Platform hinzugekommen, die es erlaubt, Software-defined Datacenter aufzubauen. Wir haben sogar Tools geschaffen, um mehrere Clouds wie eine einzige Cloud zu verwalten – die Vision von Suns N1 ist letztlich also Realität geworden.

Nun bin ich neugierig, was die nächsten zehn Jahre Cloud bringen. Nach dem Aufstieg der Private Cloud in der letzten Dekade, der zum Aufbau von Microservice-Architekturen und einer agileren Software-Entwicklung führte, steht ein radikaler Umbau monolithischer Legacy-Anwendungen hin zu Cloud-nativen Applikationen an. Darüber hinaus werden Cloud und on-premises weiter verschmelzen – die Bezeichnung „Hybrid Cloud“ beschreibt das nur teilweise. Angefangen mit der Anbindung von Fertigungsstraßen an Private oder Public Clouds und Fahrzeugen oder anderen IoT-Systemen, die Informationen in der Cloud nutzen oder in die Cloud hochladen, wird das Ubiquitous Computing – die allgegenwärtige Verarbeitung von Daten – mehr und mehr Normalität. Nach fast 20 Jahren mit der Cloud wird es Zeit, Cloud-Technologien auf breiter Basis zu nutzen.

Wie das funktioniert hat, werde ich in einigen Jahren in einem weiteren Beitrag beleuchten – ich trage es mir in den Kalender ein.

* Matthias Pfützner ist Senior Cloud Solution Architect bei Red Hat

Weitere Informationen unter:
www.redhat.com

Server (Symbolbild) Quelle: Image by Edgar Oliver from Pixabay