Checkliste: Data Science als strategisches Projekt

Dies ist ein Gastbeitrag von Gery Zollinger, Head of Data Science & Analytics bei Avaloq

Wenn Finanzinstitute ihre Daten sinnvoll nutzen, können sie ihr Geschäft transformieren und sich einen wichtigen Wettbewerbsvorteil verschaffen. Neueste Analysetechnologien und KI-Lösungen werden für Privatbanken und Vermögensverwalter unverzichtbar, um ihre Zukunftsfähigkeit zu sichern. Einer aktuellen Umfrage von Avaloq unter 208 Vermögensberatern von 110 führenden Finanzdienstleistern in Zürich, Singapur, London und Frankfurt zufolge sehen 55 Prozent der Befragten Künstliche Intelligenz und Datenanalyse als wichtige Technologien für ihre Zukunft. Gleichzeitig hat eine informelle Umfrage auf den Avaloq Community Conferences aber ergeben, dass Wealth Manager erst ungefähr 35 Prozent der Daten, die ihnen zur Verfügung stehen, tatsächlich nutzen und auswerten. Der Handlungsbedarf in Sachen KI und fortgeschrittener Analysemethoden ist den meisten in der Branche offenbar bewusst, nur mangelt es an der Umsetzung. Allerdings hilft es wenig, sich blauäugig in sein Data Science-Projekt zu stürzen – und zu hoffen, früher oder später werde es schon die erhofften Ergebnisse liefern. Data Science ist eine Aufgabe von strategischer Relevanz, die Finanzinstitute entsprechend planvoll angehen sollten. Die folgende Checkliste hilft, die gängigsten Fehler zu vermeiden.

  1. Data Science-Projekte entscheiden über Zukunftsfähigkeit
    Banking und Wealth Management ist zwar ein Geschäft, bei dem große Datenmengen anfallen, aber zugleich arbeiten viele Finanzinstitute auf sehr traditionelle Weise. In solchen Organisationen einen modernen, datengetriebenen Ansatz zu vermitteln, ist nicht ganz einfach. Data Science ist eben nicht nur ein Experiment oder das jüngste Marketing-Schlagwort. Um im Wettbewerbsumfeld der Zukunft zu bestehen, ist sie überlebenswichtig. Ein Data Science-Projekt braucht darum die Unterstützung von ganz oben: ein klares strategisches Commitment auf Vorstandsebene.
  2.  Priorität für die gesamte Organisation
    Das Engagement des Vorstands ist das eine, das der gesamten Organisation aber das andere. Der Erfolg eines Datenanalyse-Projekts hängt darum ebenso von einem wirkungsvollen Change Management ab. Es braucht das Verständnis und die Zustimmung in der gesamten Organisation, vom Relationship Manager im Front Office bis zum Legal Officer im Back Office. Der Wandel zu einer datengetriebenen Organisation ist eine Frage der Unternehmensstrategie und der Unternehmenskultur. Er muss in den Köpfen ankommen.
  3. Agiles Vorgehen in abteilungsübergreifende Teams
    Ein agiler organisatorischer Rahmen kann darum ein wesentlicher Bestandteil des Projekterfolgs sein. Wenn engagierte Mitarbeiter mit unterschiedlichen Fähigkeiten in gemischt besetzten Teams zusammenarbeiten, um in einer Kette von Sprints und auf iterative Weise neue Produkte zu entwickeln, führt dies nicht nur schneller und effektiver zum Ziel. Ein agiler Ansatz kann auch die Mitarbeiter ganz anders involvieren und dank der gemischten Teams besser in die Organisation hineinwirken. Partizipation ist eine wichtige Voraussetzung für effektiven Wandel.
  4. Die strategische KI-Roadmap
    Mit großen Datenmengen umzugehen und aus ihnen durch geeignete Analysen wertvolle Erkenntnisse abzuleiten, ist keine triviale Aufgabe. Ein Data Science-Projekt braucht einiges an Ressourcen und Investitionen. Ohne eine passende Strategie und einen sinnvollen Fahrplan werden die großen Datenmengen, die zu verarbeiten sind, für die Organisation eher zur Belastung als zur Chance. Besonders effektiv ist es, nutzerzentriert von Anwendungsfällen auszugehen und diese in verschiedenen Geschäftsbereichen zu bündeln. Dies lässt sich mit einem vielfältigen Portfolio an KI-Projekten kombinieren, von Wachstumsinitiativen für das Front Office bis hin zu Projekten für die Risikominimierung oder die Effizienzsteigerung im Back Office.
  5. Technologische Komplexität in den Griff bekommen
    Die Tools und die Hardware für ein Data Science-Projekt erfordern nicht nur ein initiales Investment, sondern benötigen auch noch erhebliche Ressourcen, nachdem sie eingerichtet sind. Schon allein dem beachtlichen Speicherbedarf für all die Daten zu genügen und eine Daten-Infrastruktur zu schaffen, die den Bedarf in Zukunft noch erfüllt, ist eine erhebliche Aufgabe. Dies gilt nicht zuletzt vor dem Hintergrund, dass der Platz in den Data-Centern vieler Finanzinstitute recht beschränkt ist. Es ist eben nicht damit getan, einen hochqualifizierten Datenwissenschaftler mit Doktortitel einzustellen und die moderne große Datensoftware zu implementieren. Data Science-Projekte haben einen anhaltend hohen Bedarf an Infrastruktur-Ressourcen. Zudem entfalten sie disruptives Potenzial und stellen besondere Anforderungen an Sicherheit, Datenschutz und Verfügbarkeit.
  6. Saubere Daten als unverzichtbare Grundlage
    Für den reibungslosen Workflow in Data Science-Prozessen stellt es oft die größte Herausforderung dar, unvollständige und unsaubere Datensätze aufzubereiten. Schon die Informationen aus einem Klientenprofil weisen oft erhebliche Lücken auf. Dass hier Daten fehlen, ist keine Seltenheit, besonders dann, wenn Informationen im Free-Text-Format erfasst sind. Größere Organisationen, auch im Bereich der Finanzdienstleistung, haben darum in den vergangenen Jahren oft schon erheblich investiert, um Datensilos aufzulösen, Systeme zu konsolidieren und Daten aus verschiedensten Quellen sinnvoll zusammenzuführen. Innovative Technologie kann hier entscheidend helfen und die Datenqualität sichern. So dienen Methoden des Machine Learnings dazu, Entitäten auf effiziente Weise aufzulösen und Datensätze miteinander zu verknüpfen.
  7. Machine Learning im Branchenmaßstab
    Um gute Ergebnisse zu bringen, benötigen Machine Learning-Technologien wie Deep Learning bzw. tiefe neuronale Netze oft sehr viele verschiedene Trainingsdaten. Ein Open-Banking-Ansatz und ein großes Ökosystem können wesentlich dabei helfen, die Prognosefähigkeiten von Machine Learning zu steigern. Denn ein relativ neues Konzept namens Federated (bzw. Collaborative) Learning, das auch Technologiegiganten wie Google und Apple nutzen, ermöglicht es, Algorithmen auf einer großen Basis von Trainingsdaten zu verbessern – ohne dabei den Erfordernissen des Datenschutzes zu widersprechen.

Weiterführende Informationen rund um KI und Machine Learning hat Avaloq in seinem Whitepaper „Wealth management redefined using artificial intelligence“ zusammengestellt, das zum kostenfreien Download hier (http://www.avaloq.link/WM-AI) verfügbar ist.

Über den Autor

Gery Zollinger ist Head of Data Science & Analytics bei Avaloq (www.avaloq.com), ein Anbieter von digitalen Banking-Lösungen, Kernbankensoftware und Vermögensverwaltungstechnologie. Er verfügt über mehr als acht Jahre Erfahrung im Bereich Analytics und quantitative Modellierung. Bevor er 2019 zu Avaloq stieß, arbeitete er bei Credit Suisse im globalen Credit Risk Analytics Team und war für die Kreditrisikomodellierung innerhalb der Sparten Private Banking und Investment Banking verantwortlich. Zudem hat er dort ein globales Data Scientist Team im Bereich Compliance Analytics aufgebaut und geleitet. Gery Zollinger verfügt über Abschlüsse in Wirtschaft & Statistik der Universität Zürich (Schweiz), der Universität Lausanne (Schweiz) und der NHH Bergen (Norwegen) sowie einen Abschluss in Informatik der ETH Zürich (Schweiz).

Weitere Informationen unter:
www.avaloq.com