Data-Sharing in der Cloud

Wenn die Cloud bisher eher aus Sicht der Infrastruktur und Kosteneinsparung wahrgenommen wurde, so lohnt es sich doch laut Pierre Thompson von Snowflake, die Cloud auch weiterführend zu betrachten. Konkret z.B. hinsichtlich einer zielführenden Kollaboration entlang der Wertschöpfungskette durch das Teilen von Daten. Thompson wirft dabei im Gespräch die Frage auf, wie Unternehmen dabei die geforderte Flexibilität wahren können.

Pierre Thompson, Regional Director D-A-CH bei Snowflake: „Ich sehe tatsächlich einen stark zunehmenden Bedarf an Data-Sharing.“ Bildquelle: snowflake

Herr Thompson, wie beurteilen Sie die Rolle der Cloud im Hinblick auf die digitale Transformation?
Die Cloud wurde bisher vor allem wahrgenommen als eine Möglichkeit, Kosteneinsparungen und Performancegewinn zu kombinieren. Die positiven Effekte gegenüber den traditionellen On-premise Ansätzen haben hierbei auch sehr konservative Unternehmen überzeugt.
In einem nächsten Schritt werden nun weitere Mehrwerte durch zum Beispiel einfachere Kollaboration und der Monetarisierung von Daten gehoben.
Bisher wurden cloud-basierte Data Warehouses (DWH) genutzt, um interne Unternehmensdaten optimal für interne Analysen aufzubereiten und dies extrem günstig und flexibel im Vergleich zu den klassischen Architekturen. Nun, da sich mehr und mehr Konzerne mit ihren Daten auf den großen Cloud-Plattformen befinden, ergeben sich zunehmend Möglichkeiten, diese Daten sicher entlang der vertikalen Wertschöpfungskette oder horizontalen Supply-Chain auszutauschen. Oder es entstehen Unternehmen, die ausschließlich als Data-Broker eine Drehscheibe zwischen Unternehmen darstellen und als Business-Modell veredelte Daten in Echtzeit anbieten. Dieses Data-Sharing im großen Stil ist der nächste Schritt, der durch die Cloud überhaupt erst ermöglich wurde.

Ist diese „Vision“ schon überall in der deutschen Wirtschaft angekommen?
Ich sehe tatsächlich einen stark zunehmenden Bedarf an Data-Sharing. Das heißt, Unternehmen stellen Partnern, Lieferanten, Kunden etc. in Echtzeit, sicher und klar definierte Daten zur Verfügung, um effizienter zu agieren. Im Gegensatz zu früheren Konzepten passiert dies wiederum ohne Datenkopien und manuellem Transfer – dafür aber extrem sicher und mit Echtzeitaktualisierung. Die vollständige Synchronisation von Daten entlang der Wertschöpfungskette ermöglicht ein neues, effizientes Level von Kollaboration über Unternehmensgrenzen hinweg.
Jedoch noch sehr wenig ausgeprägt ist der nächste Schritt: Die Monetarisierung des Goldschatzes auf dem viele Unternehmen sitzen. Wir kennen spannende Ansätze insbesondere von den Unternehmen, deren Kernbusiness schon immer aus Daten bestand, wie Wetterplattformen, Marktforschungsinstitute etc. Nun sehen wir darüber hinaus aber auch klassische Industrieunternehmen, Finanzinstitute oder Retailer, die ihre Daten aus Sensoren, Transaktionen oder Handelsplattformen aufbereiten und anderen Marktpartnern zur Verfügung stellen; die darauf wiederum Services und Geschäftsmodelle aufbauen.
Grundsätzlich lässt sich aber feststellen, dass Unternehmen aus dem angel-sächsischen Raum in diesem Geschäftsfeld leider deutlichen Vorsprung haben.

Hier kommen wir dann nicht umhin, über Stichwort Analytics zu sprechen: Welche Entwicklungen werden wir hier in den nächsten Monaten sehen?
Der Markt der Analytics-Anbieter hat sich in der jüngsten Vergangenheit deutlich verändert. Einstmals unabhängige Anbieter, wie Looker oder Tableau, sind nun Bestandteil von Konzernen, deren Geschäft zu 100% cloudifiziert ist und die als Platformanbieter neues Potenzial mit den Technologien heben können.
Offensichtlich ist Analytics in Kürze gleichzusetzen mit Cloud – und dies macht Sinn, wenn wie oben dargestellt, mittlerweile die Mehrheit der Daten in der Cloud vorgehalten wird. Darüber hinaus wird es einen erheblichen Schub durch künstliche Intelligenz und Machine Learning geben. Wenn Unternehmen massenhaft Daten in der Infrastruktur der Cloud analysieren, dann können schneller Formen von Metadaten und Heuristiken entwickelt werden, die dem menschlichen Vermögen, Daten kreativ auszuwerten, in einigen Disziplinen überlegen sein werden.

Wie greifen Sie diese Entwicklungen im Rahmen Ihres „Data Warehouse in der Cloud“ auf?
Die Entwicklungen aus dem Data-Sharing greift Snowflake auf zweierlei Art auf. Zum Einen ermöglicht unsere Technologie jedem Unternehmen, seine Daten in Echtzeit sicher zu teilen, ohne fehleranfälliges und unsicheres manuelles extrahieren, upload etc. Daneben haben wir auf unserer Userkonferenz unseren zukünftigen Marketplace für Data vorgestellt, der es Datenanbietern unkompliziert ermöglicht, Daten einfach anzubieten und als Umsatzquelle zu erschließen. Damit ist Snowflake als Platform so etwas wie das Amazon des Datenhandels, da wir Technologie und Marketplace zugleich anbieten.
Den analytischen Aspekt nutzen wir sehr tief in unserer Technologie um unsere Anwender optimal zu unterstützen. Neben einzelnen analytischen Funktionen innerhalb unseres Warehouses, basiert zum Beispiel das gesamte automatische skalieren von Rechten und Speicherkapazität auf komplexen Heuristiken. Diese Heuristiken wiederum lernen aus dem Verhalten von tausenden Nutzern und angepasst an kundenspezifische Besonderheiten, um bspw. zu antizipieren, dass ein Unternehmen immer Montags um 10:00 Uhr mehr Rechenkapazität benötigt, oder nach dem Monatsabschluss automatisch herunterskalieren kann.

Datenqualität steigern vs. einfach anfangen: welchen Weg würden Sie als Entscheider wählen?
Das ist ein bisschen wie Henne oder Ei und nicht pauschal zu beantworten. Tendenziell empfehle ich jedoch sehr agil zu arbeiten und in kleinen Schritten erste Erfolge aufzuweisen, um dann final den großen Schritt zu machen. Wenn ein Unternehmen eine neue Analytics-Plattform einführen möchte, um zum Beispiel Preisanalysten in Echtzeit parallel Zugriff auf strukturierte und unstruktierete Daten zu ermöglichen, dann wäre es fatal, zunächst in einem Wasserfallprojektplan das Vorhaben ingenieurmäßig vorzudenken, sämtliche Daten vollständig korrekt aufzubereiten und dann in die Umsetzung zu gehen. Der Wettbewerb ist in diesen 18 Monaten dann bereits die ersten 10 Schritte voraus und intern wird es schwierig, die Nutzer „bei Laune“ zu halten. Daher macht ein parallelisiertes Vorgehen Sinn. Erste Teilprojekte erfolgreich an den Mann zu bringen – indem zum Beispiel initial nicht alle Daten, die im Projektscope stehen integriert werden –, und paralleles feintunen des Erstsystems plus Planung und Vorbereitung des Gesamtprojektes.

Weitere Informationen unter:
https://www.snowflake.com/?lang=de