Künstliche Intelligenz realistisch einsetzen

Wir sprachen mit Professor Dr. Götz Andreas Kemmner. Er gründete gemeinsam mit Dr. Helmut Abels die Abels & Kemmner GmbH. Nach seinem Studium des Maschinenbaus und der Wirtschaftswissenschaften an der RWTH Aachen promovierte er bei Prof. Rolf Hackstein und Prof. Walter Eversheim. In seinen gut 25 Jahren Berufserfahrung hat er über 120 nationale und internationale Projekte durchgeführt. Er plädiert im Interview für eine realistische Sicht auf künstliche Intelligenz.

Herr Prof. Kemmner, heute hört man viel von Künstlicher Intelligenz, kurz KI, die Unternehmen unbedingt einsetzen müssten, um erfolgreich zu bleiben. Warum benötigt man überhaupt KI?
KI ist heute ein Buzzword und darf in keiner Marketingaussage fehlen. Die Praktiker irritiert das jedoch viel mehr, als dass es ihnen hilft, an der richtigen Stelle KI einzusetzen. KI-Methoden können in der Tat in vielen Stellen weiterhelfen, an denen wir mit klassischen Methoden nicht weiterkommen. Das bedeutet aber umgekehrt nicht, dass alles mit KI besser wird.

Wird KI also überschätzt?
Sie kann nicht alles lösen. Lassen Sie mich das konkret machen, auch wenn es ein wenig schwarz-weiß gemalt ist: Im Grunde setzt man Software für zwei Aufgabengruppen ein. Man bildet Prozesse, also Arbeitsabläufe ab, oder man berechnet bestimmte Zahlenwerte. Wenn Sie eine eMail versenden, ist dies ein Arbeitsablauf, bei dem eine Information von A nach B gesendet wird. Wenn mit dem ERP-System eine Bedarfsprognose erstellt wird, wird eine Berechnung durchgeführt. Die Prognoseergebnisse werden bereitgestellt, damit die Disposition über die Nachbevorratung von Material entscheiden kann. Dies stellt dann einen weiteren Prozessschritt dar. Welche Menge an Material zu welcher Zeit nachbestellt werden sollte, erfordert wiederum eine Berechnung, die auf den zuvor ermittelten Planbedarfen aufsetzt.


Sowohl bei Berechnungs- wie bei Prozessschritten gibt es dann Konstellationen, bei denen KI weiterhelfen kann. Es gibt aber auch solche, bei denen KI nicht benötigt wird. Schauen wir uns als Beispiel einmal Berechnungsaufgaben an: Wenn Sie die Länge der längsten Seite eines rechtwinkligen Dreiecks berechnen wollen und die Längen der beiden kürzeren Seiten kennen, verwenden Sie eine genaue Formel, mit der Sie ein präzises Ergebnis bekommen und alles ist gut. Hier benötigen Sie keine KI.
Wenn Sie Fertigungsaufträge mit mehreren Arbeitsschritten auf Produktionsanlagen einplanen wollen, gibt es solche einfachen Formeln nicht mehr. Sie müssen vielmehr zahlreiche Restriktionen berücksichtigen. Wenn Sie alle Restriktionen kennen und beschreiben, lässt sich die Lösung dann zwar theoretisch errechnen, praktisch aber nicht, da unsere Computer noch immer nicht schnell genug rechnen und vermutlich noch für lange Zeit nicht so schnell wie notwendig rechnen können werden. Hierfür haben nun Mathematiker und Informatiker clevere Tricks entwickelt, wie man diese Herausforderung trotzdem lösen kann. KI kann hier helfen, die Lösungen noch effizienter zu erarbeiten.
Drittes Beispiel: Sie wollen aus der historischen monatlichen Verkaufszeitreihe eines Artikels ermitteln, wie dieser Artikel in Zukunft monatlich voraussichtlich nachgefragt werden wird. Sie könnten dafür einfach einen Mittelwert berechnen und eine Wahrscheinlichkeit, wie stark die Nachfrage um den Mittelwert schwankt. Sie verwenden dann zwar konkrete Formeln, aber eigentlich berücksichtigen Sie nur die Mengen und Schwankungen der Vergangenheit, um daraus die zukünftige Nachfrage zu ermitteln. Welche Einflussgrößen zu den Nachfrageschwankungen in der Vergangenheit geführt hatten, wissen und berücksichtigen Sie nicht. Sicherlich können Sie sich viele Einflussgrößen vorstellen, die in der Vergangenheit dazu beitrugen, die Nachfrage zu steigern oder zu senken. Zum Beispiel Preisaktionen von Wettbewerbern oder die Konjunktursituation oder eine Pandemie. Die verschiedenen Einflüsse wirken dabei aber auch gegeneinander. Hier wird es praktisch unmöglich, die statistischen Zusammenhänge zu messen und zu erkennen. Auch und gerade hier kann KI weiterhelfen.

Was kann die KI denn besser als klassische Berechnungen und Statistiken?
Methoden der künstlichen Intelligenz sind, wiederum etwas vereinfacht ausgedrückt, Algorithmen, die entweder Zusammenhänge zwischen verschiedenen Größen erkennen, die vorher nicht bekannt waren – das ist z.B. relevant bei Prognosen oder Bilderkennung. Zudem gibt es KI-Lösungen die Ergebnisse schneller liefern als klassische mathematische Ansätze.
Der Nachteil aller KI-Ansätze der ersten Kategorie ist, dass sie nicht zwischen Korrelation und Kausalität unterscheiden können. Ob zwei Effekte zufällig synchron laufen oder aufgrund realer Zusammenhänge, erkennen die mir bekannten heutige KI-Methoden noch nicht.
Die meisten können darüber hinaus nicht darlegen, auf welchem Weg oder warum sie zu einem bestimmten Ergebnis gekommen sind. Die KI simuliert hier in gewisser Weise nur das menschliche Bauchgefühl, wobei sie aber – im Gegensatz zum Menschen – dabei nicht durch Emotionen beeinflusst wird und damit unter gleichen Voraussetzungen auch zu gleichen Antworten kommen sollte – zumindest theoretisch. Letztlich müssen die meisten KI-Methoden „eingelernt“ werden. Das bedeutet, man benötigt einen mehr oder weniger umfangreichen Datensatz, anhand dessen die Algorithmen lernen können.

Herr Prof. Kemmner, Sie setzen in der Software DISKOVER solche KI-basierte Methoden ein. Wo kommt die KI bei DISKOVER zum Einsatz?
Wir setzen aktuell bei drei Aufgabenstellungen KI-Methoden ein. Weitere sind zudem bereits in der Entwicklung.
Bei der Einplanung von Fertigungsaufträgen gegen begrenzte Kapazitäten und gegen weitere Restriktionen, bei der Optimierung der Gesamtlieferbereitschaft eines Produktportfolios und bei der Absatzprognose. Für die ersten beiden Fälle haben wir ein Software-Modul entwickelt, das wir „Optimizer-Engine“ nennen und das mit Heuristiken und Metaheuristiken aus dem Bereich der künstlichen Intelligenz arbeitet. Diese Optimizer Engine ist darauf ausgelegt, knifflige Optimierungsaufgaben im Hintergrund automatisch und sowohl zeitlich als auch von Seiten der benötigten Rechenleistung her effizient zu lösen. Vereinfacht ausgedrückt also dort, wo eine klassische Berechnung zu aufwändig, zu zeitintensiv, zu ressourcenintensiv oder gar nicht mehr möglich ist.
Für die Absatzprognose verwenden wir zudem sogenannte neuronale Netze die wir mit Simulationen kombiniert haben, wie sie bei DISKOVER schon seit vielen Jahren zum Einsatz kommen. Neuronale Netze können bei der Absatzprognose zahlreiche potenzielle Einflussgrößen berücksichtigen, die man den Algorithmen in Form von umfangreichen Daten zur Verfügung stellen muss, damit Sie lernen können, wie die verschiedenen Einflussgrößen sich auf die Absatzmenge auswirken. Da auch neuronale Netze chaotisches Verhalten nicht voraussagen können und mit ihren Voraussagen auch falsch liegen können, weil sie zufällige Effekte zu stark berücksichtigen, verifizieren wir die Ergebnisse zusätzlich noch in einer sogenannten empirischen Simulation, in der sich sie gegen z.B. statistisch bereits bewährte Berechnungsmethoden behaupten müssen. Dieser Clearingschritt halten wir für immens wichtig, um die Qualität des Ergebnisses abzusichern.

Wie können diese KI-Methoden den Unternehmen ganz konkret weiterhelfen im Vergleich zu klassischen Methoden? Welche Potenziale können freigesetzt werden?
Bei der Feinplanung in DISKOVER hilft uns KI, schneller zu guten Ergebnissen zu gelangen. Die Potenziale zeigen sich in besserer Produktivität, höherem Durchsatz und besserer Termintreue der Aufträge.
Bei der Optimierung der Gesamtlieferbereitschaft ermöglicht die Optimizer Engine innerhalb von ca. 90 Sekunden für eine vorgegebene Zielgröße – eben die Gesamtlieferbereitschaft – die dafür erforderlichen Teillieferbereitschaften einzelner Gruppen des Artikelportfolios zu ermitteln. Diese Berechnung war vorher nur sehr aufwändig und sehr grob durchführbar, sodass man in der Praxis zumeist darauf verzichtet hat. Die Potenziale liegen darin, dass einerseits eine Gesamtlieferbereitschaft gezielt vorgegeben werden kann und andererseits die dafür erforderlichen Bestände so gering wie möglich gehalten werden.
Bei der Erarbeitung von Absatzprognosen können zudem nicht nur zahlreiche Einflussgrößen berücksichtigt werden – das ist inzwischen in leistungsfähigeren Systemen Standard – sondern die Prognoseergebnisse werden auch empirisch verifiziert und um die richtigen Sicherheitsbestände ergänzt. So vermeiden wir, dass Sie sozusagen dem „Bauchgefühl“ der Algorithmen auf den Leim gehen. Auch stellen wir sicher, dass die Sicherheitsbestände die Prognoseunsicherheit sauber kompensieren. Im Ergebnis erhält man bessere Prognosen, genauer berechnete Sicherheitsbestände und erreicht damit eine geforderte Lieferbereitschaft mit geringeren Beständen bzw. mit geringeren Gesamtkosten.

An wen richten Sie sich mit dem Tool DISKOVER?
DISKOVER ist auf Produktions- und Handelsunternehmen ausgerichtet, die häufig komplexe Wertschöpfungsketten mit teilweise langen Wiederbeschaffungszeiten aufweisen. Als Add-On-System arbeitet es im Zusammenspiel mit ERP- oder Warenwirtschaftssystemen. Dabei kann es als APS-System in seiner gesamten Wirkungsbreite eingesetzt werden. Alternativ kann es auch gezielt einzelne Leistungslücken im Planungsprozess eines ERP-Systems ausmerzen. Unser Ziel ist es dabei immer, im Zusammenspiel zwischen Software und Beratung das Gesamtsystem sowohl effizienter als auch effektiver zu machen und nicht – platt ausgedrückt – möglichst viele ERP-Funktionen durch DISKOVER-Funktionen zu ersetzen.

Wie ist überhaupt die Idee zu Ihrer Lösung DISKOVER entstanden? Welche Motivation gab es dazu?
Die Ursprünge von DISKOVER gehen auf Ideen zurück, die an der RWTH Aachen Anfang der 90er Jahre entwickelt worden sind. Wir haben DISKOVER kontinuierlich als ein Simulationssystem ausgebaut, das zuerst die Auswirkungen von Planungs- und Steuerungsentscheidungen auf komplexer dynamische Wertschöpfungsketten durchspielen konnte und später Planungs- und Steuerungsmechanismen automatisch optimieren konnte.
Durch ein Beratungsprojekt beim Schreibgerätehersteller Montblanc kam es dazu, dass wir unser Simulationssystem zu einem operativen System ausbauten. Mund-zu-Mund Propaganda führte zu immer mehr Nachfrage nach dem operativen DISKOVER-Tool, sodass das Softwaregeschäft immer mehr zunahm. 2008 gründeten wir deshalb die SCT GmbH als Tochterunternehmen von Abels & Kemmner. Die SCT treibt heute – im Zusammenspiel mit den Beratern einerseits und den operativen Anwendern andererseits – die Weiterentwicklung von DISKOVER voran; Abels & Kemmner bringt die Kompetenz für die Gesamtoptimierung ein.
Diese besondere Konstellation spiegelt sich auch bei den Anwenderunternehmen von DISKOVER wider: Die meisten Anwender verstehen logistische Leistung als wesentlichen Erfolgsfaktor und streben an, ihre Prozesse und Algorithmen über den Stand des Wettbewerbs hinaus zu optimieren. Schnell und kostengünstig releasefähige kundenspezifische Anpassungen durchführen zu können, ist ein weiteres wesentliches Merkmal von DISKOVER.


Über den Interviewpartner

Professor Dr. Götz Andreas Kemmner, Jahrgang 1959, gründete gemeinsam mit Dr. Helmut Abels die Abels & Kemmner GmbH. Nach seinem Studium des Maschinenbaus und der Wirtschaftswissenschaften an der RWTH Aachen promovierte er bei Prof. Rolf Hackstein und Prof. Walter Eversheim. In seinen gut 25 Jahren Berufserfahrung hat er über 120 nationale und internationale Projekte durchgeführt. Hinzu kommen Tätigkeiten als Interim-Geschäftsführer in zwei Automobilzuliefer-Unternehmen und als Oberingenieur am Forschungsinstitut für Rationalisierung (FIR) e. V. In über 190 Veröffentlichungen hat Prof. Dr. Kemmner als Autor, Co-Autor oder Referent mitgewirkt, zudem hält er regelmäßig Vorträge und Seminare. Seit dem 12.06.2012 Honorarprofessor an der Westsächsischen Hochschule Zwickau.


Weitere Informationen unter:
www.ak-online.de

Bildquelle / Lizenz Aufmacher: Copyright-Anatoly-Stojko-Dreamstime-com