Managed Artificial Intelligence Services

Managed Artificial Intelligence Services

Damit es keine bösen Überraschungen gibt

Autoren: Niels Pothmann und Andree Kupka

Immer mehr Unternehmen entdecken die Vorteile der künstlichen Intelligenz (KI). KI-basierte Applikationen entlasten von wiederkehrenden Aufgaben, beschleunigen Prozesse und erhöhen die Effizienz von Geschäftsabläufen – und sogar von Unternehmen in ihrer Gänze. Was frühzeitig mit bedacht werden sollte, ist die Tatsache, dass KI-Services bei der Überführung in den Produktivbetrieb eine technische Überwachung und bedarfsgerechte Anpassungen erfordern. Und das nicht nur einmal, sondern über ihren kompletten Lebenszyklus hinweg. Damit KI-Projekte daran nicht scheitern, braucht es professionelle Managed AI Services.

Üblicherweise kommt bei KI-Projekten ein mehrstufiges Vorgehensmodell zur Anwendung. Zunächst ist es erforderlich, relevante Use Cases zu identifizieren. Ausgehend von der Ist-Situation ist dabei zu analysieren, ob die vorhandenen Daten, Systeme und Prozesse für die Umsetzung des favorisierten Use Case geeignet sind. Danach gilt es, die Ziele und Anforderungen des Prototyps zu definieren, sie in ein Konzept zu überführen und den besten Lösungsansatz zu entwickeln. Der dritte Schritt besteht darin, den verifizierten Prototyp in ein Minimum Viable Product (MVP) zu überführen. Kontinuierliche Funktions-, Last- und Integrationstests sorgen für eine stabile Integration des KI-Services in die Betriebsumgebung. Der fertige KI-Service lässt sich dann über Schnittstellen in Applikationen, Prozesse und Systeme einbinden und ist beliebig skalierbar. In der vierten Phase scheitern viele KI-Projekte: Es gilt, den KI-Service in einer realen Produktivumgebung zuverlässig zu betreiben.

KI-Services professionell betreuen

Andree Kupka,
Machine Learning Engineer bei Arvato Systems

Um zu verhindern, dass KI-Projekte auf der letzten Meile fehlschlagen, ist es sinnvoll, dass Unternehmen die Betreuung von KI-Services durch erfahrene Partner erwägen und sogenannte Managed AI Services beziehen. Während es bei klassischen Managed Services darum geht, wiederkehrende IT-Leistungen gemäß definierter Service Level Agreements (SLA) zu beziehen – vom Betrieb über die Überwachung bis hin zur Aktualisierung von Systemen und Applikationen –, haben Managed AI Services eine andere Stoßrichtung. Neben der Frage, wo ein KI-Service zu betreiben ist – im eigenen Rechenzentrum, On-Premises bei einem Dienstleister oder in der Cloud –, ist ein Aspekt erfolgsentscheidend: Der KI-Service ist kontinuierlich zu überwachen, und sein zugrundeliegendes Modell ist immer wieder anzupassen – und zwar im Live-Betrieb.

Ein Beispiel: Ein Anlagenbauer nutzt eine KI-Applikation, die verschlissene Bauteile erkennt. Die Basis bildet eine Videoüberwachung der Anlagen. Für einen funktionierenden KI-Service ist das vorhandene Videomaterial zu sichten, ein Modell zu erstellen und die KI mit realen Daten so zu trainieren, dass sie Verschleißerscheinungen oder Leckagen identifiziert. Wenn das Unternehmen eine neue Anlage in Betrieb nimmt oder einzelne Maschinenteile tauscht, ist das Modell anzupassen und die KI von Neuem zu trainieren – eine Aufgabe, die großes Know-how erfordert und viele Ressourcen bindet. Mit den Managed AI Services eines spezialisierten Dienstleisters kann sich der Anlagenbauer stattdessen auf sein Tagesgeschäft konzentrieren. Um Re-Training und Produktivstellung kümmern sich die Data- und KI-Experten des Dienstleisters.

Das Deployment im Griff haben

Um Managed AI Services professionell erbringen zu können, braucht es ein interdisziplinäres Projektteam, dem ein Data Scientist beziehungsweise Machine Learning Engineer, Data Engineer oder Data Architect, Cloud Architect und DevOps Engineer angehören. Der Data Scientist überführt die Aufgabenstellung mithilfe von KI und Machine Learning in automatisierte Verfahren. Der Data Engineer verantwortet die Erfassung und Konsolidierung der benötigten Daten. Während der Cloud Architekt eine für die Entwicklung und den späteren Betrieb sichere und hochverfügbare IT-Infrastruktur einrichtet, bildet der DevOps Engineer die unverzichtbare Schnittstelle zwischen Entwicklung und Betrieb.

Ein endloser Kreislauf

Um einen KI-Service in den Produktivbetrieb zu überführen, muss das Projektteam reibungslos zusammenarbeiten. Der Data Scientist entwickelt ein KI-Modell in einer sogenannten „Sandbox“. Dabei experimentiert er mit Testdaten. Der Data Engineer hingegen stellt die dauerhafte Verbindung des trainierten KI-Modells mit den realen Betriebsdaten her, und der DevOps Engineer begleitet den besonders wichtigen Part der Produktivstellung. Der KI-Service verlässt die „Sandbox“, er geht über in eine gesicherte Infrastruktur und muss in Echtzeit zuverlässig funktionieren. Von diesem Zeitpunkt an ist er fortlaufend zu betreuen und zu verbessern. Im Produktivbetrieb erzeugt ein KI-Service Unmengen an Daten. Darum ist zu prüfen, ob das ursprüngliche Modell mit den generierten Daten weiterhin plausibel ist. Sollte das nicht der Fall sein, muss es der Data Scientist anpassen – ebenso wie die jeweiligen Prozesse. Hierfür muss er auf vorhandene Betriebsmodelle und -daten zugreifen können. Um das angepasste Modell unter der Aufsicht des DevOps Engineers ein zweites Mal in die Produktivumgebung einzubinden, ist die KI vorab erneut zu trainieren (Re-Training) und zu testen.

Und dann beginnt der Prozess von vorne – ein endloser Kreislauf, der nur dann reibungslos verläuft, wenn Entwicklung und Deployment nahtlos ineinander übergehen. Hinzu kommt, dass sich die äußeren Umstände und die Anforderungen an einen KI-Service schlagartig ändern können. Darauf flexibel zu reagieren, ist ein absolutes Muss. Anpassungen im Trial-and-Error-Verfahren, wie sie in der Entwicklungsphase möglich waren, sind im Live-Betrieb tabu. Empfehlenswert sind darum agile Methoden wie Continuous Integration, Continuous Delivery und Continuous Deployment. Sie verkürzen die Zeit, bis ein neues Modell in den Live-Betrieb übergeht.

Monitoring ist Pflicht

Niels Pothmann,
Head of AI von Arvato Systems

Um etwaigen Anpassungsbedarf erkennen zu können, ist ein zuverlässiges End-to-End-Monitoring jedes einzelnen KI-Services unverzichtbar. Schließlich muss sichergestellt sein, dass das KI-basierte System immer funktioniert. Darum kann bei besonders kritischen KI-Services sogar ein 24/7-Monitoring erforderlich sein. Wichtig ist, dass der Dienstleister unternehmensindividuelle Kennzahlen, Mess- und Schwellenwerte definiert und diese im Rahmen des IT-Servicemanagements (ITSM) in Standardprozesse gemäß ITIL (Information Technology Infrastructure Library) einbindet. Dabei ist zwischen der Überwachung von Infrastruktur und Applikation zu unterscheiden. Beim Monitoring der Infrastruktur geht es darum, eine optimale Verfügbarkeit, Erreichbarkeit, Performance und Auslastung mithilfe entsprechender Event- beziehungsweise Incident-Management-Prozesse sicherzustellen. Das Monitoring der Applikationen erfolgt mittels Überwachung der Schnittstellen und über regelmäßige Abfragen.

Im Zweifel einen Schritt zurückgehen

Kennzahlen fortlaufend zu monitoren und zu historisieren, ist auch wichtig, um Anpassungen im Zweifel wieder zurücksetzen zu können. Trotz sorgfältiger Voranalysen kann es unter Umständen vorkommen, dass sich ein KI-Service in der realen Betriebsumgebung anders verhält als in der Testphase angenommen. In einem solchen Fall ist es entscheidend, schnell wieder auf die Vorgänger-Version umstellen zu können.

Maximum an Flexibilität

Daneben gibt es einen weiteren Aspekt, der bei KI-Projekten zu beachten ist. Es gilt, einen Vendor Lock zu vermeiden. Das zugrundeliegende Modell muss so angelegt sein, dass sich ein KI-Service auf eine andere Infrastruktur übertragen lässt – sei es in eine andere Cloud, auf eine Nutzung als On-Premises-Lösung bei einem Rechenzentrumsdienstleister oder sogar auf den Betrieb im eigenen Rechenzentrum. Eine derartige Flexibilität ist gewährleistet, wenn der Dienstleister das fertige Modell über eine Programmierschnittstelle (API) bereitstellt, sich um Betrieb sowie Monitoring des KI-Services kümmert und begleitenden Support anbietet. Beim Versuch, all diese Leistungen selbst zu erbringen, stoßen Unternehmen häufig an ihre Grenzen.

Den passenden Partner finden

KI-Services zu entwickeln, zu betreiben und zu aktualisieren, ist komplex. Unternehmen müssen sich daher also die Frage stellen, ob sie diese Herausforderung allein bewältigen können oder wollen. In den meisten Fällen setzen Firmen schließlich auf die Zusammenarbeit mit einem entsprechenden Partner. Dann steht und fällt der Erfolg KI-basierter Applikationen mit dem Dienstleister. Wichtig ist, dass er Managed AI Services aus einer Hand bietet, eine große Expertise im Hinblick auf die mannigfaltigen Aufgabenstellungen vorweist und den Übergang von der Entwicklung in den sicheren Betrieb nahtlos gestaltet. Hierfür braucht es erfahrene Experten mit spezialisierten Fähigkeiten – je nachdem, welche Rolle sie in einem KI-Projekt übernehmen. Von Vorteil ist, wenn der Dienstleister im Betrieb von Infrastrukturen auf umfangreiche Erfahrungswerte zurückgreifen und darum bewährte Konzepte sowie Vorgehensweisen in den Bereich der künstlichen Intelligenz übertragen kann. Derart professionell unterstützt, können sich Unternehmen auf den jeweiligen Use Case konzentrieren, die damit verbundenen Prozesse dank KI spürbar beschleunigen und ihr Business wirkungsvoll vorantreiben. In dieser Kombination unterstützen Managed AI Services Unternehmen umfänglich beim Einsatz KI-basierter Applikationen.

www.arvato-systems.de

Aufmachberbild / Quelle / Lizenz
Bild von Gerd Altmann auf Pixabay