Wachstum durch KI

Das digitale Zeitalter wird zum Zeitalter der Algorithmen

Das deutsche BIP dürfte allein aufgrund KI-basierter Lösungen bis 2030 um mehr als elf Prozent steigen. Das entspricht einem Potenzial von rund 430 Milliarden Euro.

Die Welt steht vor einer neuen Zeit technologischer Durchbrüche und das kommende Jahrzehnt wird tief greifende Disruptionen mit sich bringen. Hier in Deutschland müssen wir uns entscheiden, ob wir eher verwalten oder mitgestalten. Neue Technologien im Bereich Medizin, Raumfahrt, Industrie oder Ernährung bringen die Disruptionen zu uns. Die aktuellen Veränderungen werfen bereits ihre Schatten voraus und beweisen, dass viele Geschäftsmodelle vor dem Wandel stehen und nicht mehr greifen. Zum Beispiel hat die Blockchain-Technologie die Kraft, um die Banken- und Versicherungslandschaft komplett infrage zu stellen. Peer-to-Peer bremst die Finanzbranche mit ihren tradierten Geschäftsmodellen aus.

Die digitale Transformation bringt aber auch neue Business-Modelle hervor, die unsere Unternehmen nutzen müssen, um zu bleiben. Es gilt also, da wo es wirtschaftlich sinnvoll ist, so schnell wie möglich zu digitalisieren und die Wertschöpfungspotenziale von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) zu nutzen. Ziel sollte es sein, den Trend mitzugestalten und nicht hinterherzulaufen. Mehrwerte für das eigene Unternehmen können so schnell generiert werden, um die eigene Wettbewerbsfähigkeit zu steigern.

Ralf Klinkenberg, Mitglied des Lenkungskreises der Plattform Lernende Sys­teme, sagte uns dazu: „In Deutschland findet hervorragende Spitzenforschung im Bereich künstliche Intelligenz und maschinelles Lernen statt, aus der sich enorme wirtschaftliche Wertschöpfungspotenziale ergeben. Es ist an den Universitäten, Forschungseinrichtungen und Unternehmen, diese tollen Ergebnisse möglichst schnell in die Anwendung zu transferieren und hier nicht der Konkurrenz aus den USA und China das Feld zu überlassen. Die Plattform Lernende Systeme und ihre KI-Landkarte helfen hier, geeignete Partner aus Forschung und Anwendung zu finden.“

Algorithmen werden unser Leben bestimmen und entscheiden

Ideen für Produktion und die Industrie

Die Sensorik als Grundlage der Da­tengewinnung verändert schnell und nachhaltig alle Produktionsprozesse. Durch Sensoren werden so viele Daten erzeugt wie nie zuvor. So sind zum Beispiel Sensoren schon heute die Schnittstellen zur physischen Welt, die das Internet der Dinge (Internet of Things, IoT) und das Industrial IoT (IIoT) überhaupt erst möglich machen. Die jüngsten Fortschritte im IoT führen zu einer starken Verbreitung von miteinander verbundenen Geräten, die verschiedene intelligente Anwendungen ermöglichen. Diese enorme Anzahl von IoT-Geräten erzeugt eine große Datenmenge, die intelligente Datenanalyse- und -Verarbeitungsmethoden, wie z. B. Deep Learning (DL), erfordert.

Dabei kommen verschiedene DL-Techniken wie zum Beispiel faltungsneuronale Netze, Auto-Encoder und rekurrente neuronale Netze in verschiedenen Branchen zum Einsatz. Es gibt zahlreiche Anwendungsfälle von DL für IIoT-Systeme, zum Beispiel für die intelligente Montage, intelligente Fertigung, intelligente Verbrauchsmessung und die intelligente Landwirtschaft sowie für die effiziente Vernetzung und Unfallerkennung bzw. -vermeidung. Hier bieten sich der deutschen Industrie die besten Chancen durch indus­trielle Analytik, kognitive Maschinen und intelligente Produkte sowie Dienst­leistungen.

„Model Predictive Control“ (MPC) bezeichnet die Steuerung eines Prozesses, etwa in einer Produktionsmaschine, die automatisch und selbstlernend auf Veränderungen von Parametern reagiert. Zumeist soll sie für die Sicherstellung stabiler Prozesse und damit für die Vermeidung von Störungen und Fehlern wie Stillständen oder für reduzierte Rüstzeiten und Einhaltung von Qualitätsstandards sorgen. „Zwei Dinge haben schließlich dazu geführt, dass datenbasierte Predictive-Control-Modelle im normalen Industriebereich bereits in ein oder zwei Monaten in guter Qualität erstellt werden können. Zum einen sind Sensoren sehr preiswert geworden, sodass man Maschinen schneller und mit geringeren Investitionen mit ihnen ausstatten kann. Zum anderen ist die Rechenkapazität erheblich größer geworden und man konnte Machine-Learning-Verfahren nutzen, um aus historischen Daten die Zustände eines Prozesses schnell zu bewerten“, erklärte Dr. Marco Natale von Cosmo Consult unserer Redaktion.

Eine der aktuellen Topinnovationen ist Spatial Computing (räumliches Rech­nen). Aus technischer Sicht integriert Spatial Computing mittels Software die Benutzeroberfläche des Computers nahtlos in die dreidimensionale physische Welt. Grundlagentechnologien sind dafür Virtual Reality (VR), Augmented Reality (AR) sowie Mixed Reality (MR). Für Valentin Heun, VP of Innovation Engineering bei PTC, ist die Spatial-Computing-Technologie noch lange nicht ausgereizt und es wird nachhaltig investiert. „Deshalb stellen wir die ‚Vuforia Spatial Toolbox‘ der Open Source Community zur Verfügung, damit diese eigene Programme entwickelt und voneinander lernt“, erklärte uns der Leiter des PTC Reality Lab. Valentin Heun konzentriert sich mit seiner Arbeit auf neue Computer-Interaktionsmethoden für den physischen Raum.

Lesen Sie weiterführende Interviews unserer Experten

Projektmanagement im Wandel

Auch beim Planen und Ausführen von Projekten können die neuen Technologien rund um KI sinnvoll zum Einsatz kommen. Laut einer Studie der International Project Management Association (IPMA) in Zusammenarbeit mit PwC ist die Idee noch nicht weit verbreitet. Gerade 23 Prozent der 2020 Befragten haben bereits Erfahrungen mit KI gesammelt, wonach nur 4 Prozent der Unternehmen KI-Technologien im großen Stil einsetzen. Das bedeutet im Umkehrschluss einen Wettbewerbsvorteil für Unternehmen, die hier bereits Kompetenzen aufbauen. Thomas Schlereth hat sich das Ziel gesetzt, mit einer KI-gestützten Ressourcenmanagement-Software die Arbeitswelt im Kontext von Projektma­nagementlösungen zu revolutionieren. Dabei können verschiedene Technologien rund um künstliche Intelligenz für das Projekt­ma­nage­ment zum Einsatz kommen. „Zur Risikobewertung werden iterative Muster­erken­nungs­ver­fahren angewandt, die sich dynamisch anpassen – schließlich sieht die Mustererkennung bei jedem Kunden anders aus. Simultan nutzen wir wissens­ba­sierte Systeme. Wir versuchen, das Expertenwissen der User durch Beobachtung ihrer Problemlösung zu digitalisieren, um es allen zur Verfügung zu stellen“, erklärte uns der Gründer und Geschäftsführer der Can Do GmbH.

Unternehmenssteuerung und KI

Bei Predictive Planning nutzen Unternehmen Modellierungen sowie Simulationen, und bekommen so eine Sicht auf zukünftige Entwicklungen. Das bringt die notwendige Flexibilität, um bestehende Planungs- und Forecasting-Prozesse schnell und verlässlich an dynamische Entwicklungen anpassen zu können. Plattformen zur Entscheidungsfindung bieten z. B. vorausschauende Modellierung und Was-wäre-wenn-Szenarien. Ansgar Eickeler von Board International erklärte uns dazu: Künstliche Intelligenz wird heute als Teil unserer Entscheidungsfindungsplattform eingesetzt, um die datengesteuerten Ergebnisse, Simulationen und prädiktiven Modellierungsfunktionen zu unterstützen. Dank KI können Unternehmen viele grundlegende Aufgaben automatisieren und unglaubliche Datenmengen in viel kürzerer Zeit als je zuvor verarbeiten. KI macht komplexe Daten leichter verständlich und kann beliebig viele Szenarien rechnen und uns dann die erfolgversprechendsten vorschlagen.“


In Deutschland findet
her­vor­ragende Spitzenforschung im Bereich künstliche Intelligenz statt.


QC-gestützte KI

Die Bundesregierung hat sich zum Ziel gesetzt, die Anwendung von Quantentechnologien und insbesondere von Quanten-Computing (QC) zu fördern. Dazu haben das Bundesminis­terium für Wirtschaft und Energie (BMWi) sowie weitere Ministerien eine ganzheitliche Strategie zur Entwicklung der Quantentechnologien erarbeitet. Das Rahmenprogramm „Quantentechnologien – von den Grundlagen zum Markt“ soll wegweisende Projekte – insbesondere die Anwendungspotenziale des Quanten-Computings – für die Öffentlichkeit und die Wirtschaft verdeutlichen und zur Nutzbarmachung beitragen.

Deutschland soll im Bereich des Quan­ten-Computings wirtschaftlich und tech­nologisch an der Weltspitze konkurrenzfähig sein. In diesem Kontext hat das BMWi am 26. April 2021 einen Förderaufruf auf Grundlage des Förderrahmens „Entwicklung digitaler Technologien“ gestartet. Mit dem vorliegenden Förderaufruf zum Förderprogramm Quanten-Computing sollen gezielt Themenbereiche wie zum Beispiel die Schaffung von QC-Software für Problemlösungen adressiert werden. Als wichtige Anlaufstelle in Deutschland und darüber hinaus hat sich das seit 2020 durch das BMWi geförderte Verbundprojekt PlanQK „Platt­form und Ökosystem für Quantenunterstützte künstliche Intelligenz“ etabliert, dessen Schwerpunkt bei Quanten-Software für die Wirtschaft liegt.

Diese offene FuE-Plattform bietet Spezialisten, Entwicklern sowie Nutzern (Anwendern, Dienst­leistern und Beratern) eine Basis für den Aufbau einer Community für quanten­un­terstützte künstliche Intelligenz (QKI). Zugleich soll es potenziellen Anwendern zukünftig möglich sein, auf einen „Quanten-App-Store“ mit Best-Prac­tice-Beispielen zugreifen zu können. Entwickler sollen auf dieser Plattform eigene Konzepte den Zugang und die Nutzung von QC anbieten können. An diese Entwicklungen im Bereich QC will das BMWi mit der Fördermaßnahme anknüpfen.

Erster Rechtsrahmen für KI

Das enorem Potenzial von KI, welches sich durch QC noch potenzieren dürfte, hat die EU-Kommission dazu veranlasst, ein neues Ge­setzespaket zur Regulierung im Bereich künstlicher Intelligenz vorzulegen. Das Prinzip dahinter: Je größer das Risiko, desto strenger die Regeln. Hochriskante Anwendungen sollen genehmigungspflichtig werden, bestimmte Formen solcher Systeme sollen gänzlich verboten werden. Ziel der Kommission ist einerseits, das Vertrauen in KI zu fördern, und andererseits, Innovationen nicht zu hindern.

Bernd Rodler, Vorsitzender des Verwaltungsrats der VNC AG in Zug

Durch­gesetzt werden sollen die Regeln von nationalen Behörden in den EU-Staaten. Bei Verstößen müssen Unternehmen mit hohen Strafzahlungen rechnen. So drohen Herstellern, die eine verbotene KI-Anwendung auf den Markt bringen oder gegen Vorschriften zum richtigen Umgang mit den Daten verstoßen, Strafen von bis zu 30 Millionen Euro oder bis zu sechs Prozent ihres globalen Jahresumsatzes. Die Höchstgrenze liegt damit noch höher als jene von vier Prozent, die die Datenschutzgrundverordnung vorsieht.

Mit diesem Thema hat sich bereits der US-Senat im Jahr 2017 beschäftigt und fast die gleichen Regeln hat nun die EU-Kommission im Frühjahr 2021 mit dem neuen Gesetzespaket übernommen. „Der Ruf nach dem Staat, KI zu regulieren, greift möglicherweise zu weit“, meint dazu Bernd Rodler, Vorsitzender des Verwaltungsrats der VNC AG in Zug, und betonte im Gespräch mit der Redaktion: „Was wir am Ende des Tages aber brauchen, ist eine KI-Software, die für alle, nicht nur für staatliche Stellen transparent sein muss: Die Tragweite von KI ist einfach zu brisant, als dass wir uns ausschließlich auf eine behördliche Überprüfung im Verborgenen verlassen können. Open Source ist deshalb eine wichtige Voraussetzung, denn damit kann jeder beliebige Bürger eine Anwendung und deren Prozesse jederzeit begutachten; auf dieser Basis entsteht dann, je nach Notwendigkeit, ein öffentlicher Diskurs darüber. Was ist demo­kratischer als diesen Weg zu gehen?“


Alle intelligenten Systeme lernen aus Daten. Autonome Systeme entstehen
durch eine zunehmende Automatisierung, während bessere kommunikative Fähigkeiten
den Schwerpunkt „Kognitive Systeme“ belegen. Geht man beide Pfade,
erhält man autonome Systeme, die in der Lage sind mit Menschen zu kooperieren.


KI und Kooperationen

Eine spannende Entwicklung ist das Konzept der föderierten KI. Anhand der Betrugserkennung in Banken lässt sich die Idee beschreiben: Jedes Finanzhaus kämpft darum, Betrugsversuche – von Geldwäsche bis zu Embargoverstößen – zu identifizieren. Automatisierte, KI-gestützte Prüfprozesse spielen dabei eine wichtige Rolle. Würden sich Banken dem Thema gemeinsam stellen, beispielsweise indem sie Transaktionsdaten ihrer Kunden austauschen, könn­ten sie auffällige Muster früher und sicherer erkennen. Aber: Wirtschaftliche Interessen und gesetzliche Rahmenbedingungen sprechen gegen diesen Austausch.

Beim Ansatz der föderierten KI fließen keine Transaktionsdaten hin und her. Die Banken geben lediglich den Lernfortschritt ihrer lokalen Modelle an eine zentrale Instanz weiter. Diese be­rechnet ein neues, verbessertes Modell und spielt das zurück an alle Beteiligten. Diese Idee lässt sich auf viele Bereiche übertragen, in denen der Datenaustausch zwischen Institutionen schwie­rig ist, aber sinnvoll wäre. „Aktuell ar­beitet adesso in einem Forschungsprojekt des Bundesministeriums für Bildung und Forschung mit, das Szenarien ausarbeitet“, so Prof. Gruhn.

Lesen Sie weiterführende Gastbeiträge und Interviews unserer Experten

KI im Weltraum

An der Nutzung von KI bei der Erdbeobachtung wird künftig allein schon deshalb kein Weg vorbeiführen, weil die Datenmengen immer umfangreicher werden, eine manuelle Auswertung wird damit unmöglich. Nur KI-Systeme können aus vielen Rohdaten schnell wertvolle Erkenntnisse gewinnen. Und der KI-Einsatz wird dabei nicht auf Kontrollzentren auf der Erde beschränkt bleiben: KI wird auch verstärkt am Edge, das heißt direkt am Satelliten, eingesetzt werden. Der dezentrale IT-Ansatz Edge Computing hält somit auch in der Satellitentechnik Einzug. Die Datenverarbeitung erfolgt direkt an der Datenquelle, somit müssen auch weniger Daten an die Erde zur Analyse übertragen werden. Ein Beispiel für Edge Computing im Satellitenbereich liefert der Nanosatellit OPS-SAT der europäischen Weltraumagentur ESA, der als Testlabor für Experimente mit neuer Software fungiert, etwa in Bereichen wie KI, Datenkompression oder weltraumgestützte Webservices.

Dr. Alen Berta, Executive Consultant bei CGI

Ein Experiment dreht sich dabei um die KI-Nutzung bei der Wolkenerkennung; diesen Teil verantwortet die ESA. „Für die Entwicklung einer KI-basierten Lösung für die Entscheidung, welche Daten zur Erde übertragen werden, ist CGI zuständig. CGI und die ESA werden damit erstmals eine gänzlich neue Art der Verbindung von On-Board- und Bodenkontrollsystem-Prozessen konzipieren“, erklärte dazu Dr. Alen Berta, Executive Consultant bei CGI in Deutschland. Künstliche Intelligenz (KI) und maschinelles Lernen (ML) werden unser Leben in einem viel größeren Ausmaß verändern, als die meisten denken. Algorithmen, die beispielsweise radiologische Bilder auswerten, sind nur der Anfang.

Mehr zum Thema KI im Weltraum erläutert Dr. Berta im Interview unter:
https://www.trendreport.de/ki-im-weltraum


Am Rande für Sie notiert:


Nicht viel anders sieht es bei Bewerbungen oder Kreditanträgen aus. Wenn allerdings KI-Systeme immer wichtigere Entscheidungen treffen, muss offengelegt werden, wie und warum ein Algorithmus dieses Ergebnis liefert. Ansonsten besteht die Gefahr, dass es zu Fehlern oder diskriminierenden Entscheidungen kommt. Etwa wenn Kandidaten bei einer automatisierten Bewerberauswahl aufgrund einer geschlechtsspezifischen Voreingenommenheit aussortiert oder der Kreditantrag abgelehnt wird.

Bei geschlossenen KI-Systemen, bei denen weder der Quellcode noch die Daten, mit denen das System trainiert wurde, einsehbar sind, muss dem Anbieter blind vertraut werden. Vertrauen ist gut, Offenheit allerdings besser. Abschließend betonte Dr. Rebecca Whitworth, Associate Manager bei Red Hat, im Gespräch mit unserer Redaktion: „Deswegen sollten wir bei KI und ML möglichst nur auf Software vertrauen, die wir auch verstehen. Bei Open-Sour­ce-Lösungen kann jeder, der Interesse hat, einsehen, wie das Programm Entscheidungen trifft, mögliche Schwachstellen durch ständiges Testen aufzeigen und so zu einem transparenten Diskurs beitragen. Damit ebnet Open Source den Weg für eine bessere KI.“


Autor:
Bernhard Haselbauer