Digitalisierung + Nachhaltigkeit = Resilienz
„Wir erleben gerade eine zweite Welle der KI-Revolution“
„Wir erleben gerade eine zweite Welle der KI-Revolution“
Wir sprachen mit Dr. Dirk Hecker, stellvertretender Leiter des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS. Er ist zudem Geschäftsführer der „Fraunhofer-Allianz Big Data und Künstliche Intelligenz“, einem Verbund von mehr als 30 Fraunhofer-Instituten zur branchenübergreifenden Forschung und Technologieentwicklung im Bereich Big Data. Im Fokus steht dabei die Anwendbarkeit neuer Technologie für die Unternehmen am Standort und wie diese mithilfe etwa künstlicher Intelligenz mehr Widerstandsfähigkeit im Wettbewerb gewinnen können.
Herr Dr. Hecker, was bedeutet eigentlich „Digitale Resilienz“?
Ich denke, wir haben in den vergangenen Jahren in Europa sehr eindrücklich feststellen müssen, wie stark sich Abhängigkeiten, z. B. im Energiesektor oder in den Logistikketten auswirken können. Viele Unternehmen haben daraus gelernt und hinterfragen ihre Infrastruktur, Prozesse und Lieferketten. Die digitale Resilienz einer Organisation oder eines Unternehmens bedeutet die Fähigkeit, sich an Veränderungen und Störungen im digitalen Bereich anzupassen, um die Geschäftsprozesse aufrechtzuerhalten.
Ein wichtiger Bestandteil der digitalen Resilienz ist die Fähigkeit, Cyber-Bedrohungen abzuwehren und die Verfügbarkeit und Integrität von Daten und IT-Systemen sicherzustellen. So hat zum Beispiel die Ukraine sehr schnell reagiert und ihre Verwaltungsdaten in die Cloud verschoben – insgesamt mehr als 10 Petabyte, auf die so auch vom Ausland aus zugegriffen werden kann. Neben mehr Resilienz durch Informationstechnik kann digitale Resilienz andererseits auch eine Eigenschaft von Informationstechnik sein. Hier erwartet man sichere und vertrauenswürdige IT, oft auch Hersteller- und Ortsunabhängigkeit sowie redundante Systeme.
Inwieweit beeinflussen/ sind abhängig/ tangieren sich Resilienz, Digitale Souveränität und Nachhaltigkeit?
Diese Begriffe werden verstärkt in Zusammenhang gebracht, seit unter Ursula von der Leyen die digitale Dekade und der Green Deal der EU ausgerufen wurden. Digitale Souveränität bedeutet Handlungs- und Entscheidungsfreiheit im digitalen Raum und wird oft mit Selbstbestimmung, Selbstständigkeit und Sicherheit assoziiert. Wer an einen Hersteller gebunden ist, und dabei noch durch anfällige oder inflexible IT eingeschränkt wird, kann nicht souverän handeln.
Resilienz stärkt Souveränität. Wettbewerbsfähigkeit, insbesondere durch digitale Geschäftsmodelle und qualifiziertes IT-Personal, erweitert ebenfalls die digitalen Freiräume. In Unternehmen stellt sich folglich die Frage: An welchen Stellen brauche ich eigene Kompetenzen, um nicht in eine Abhängigkeit zu geraten?
Nachhaltigkeit in ihren ökonomischen, ökologischen und sozialen Dimensionen kann ebenfalls eine Eigenschaft digitaler Lösungen sein oder durch digitale Lösungen gestärkt werden. Man kann sie als Ruf nach einer wertebasierten Digitalisierung verstehen. Eigene Werte kann man umso besser durchsetzen, je souveräner man entscheiden und handeln kann. Nachhaltigkeit wird außerdem gestärkt durch Energie- und Ressourceneffizienz und geschwächt durch soziale Überwachungssysteme, manipulative Systeme und indem digital unerfahrene Personengruppen abgehängt werden.
„Sehr große KI-Modelle wie etwa ChatGPT können Texte und Bilder von beachtlicher Qualität generieren“, so Dr. Dirk Hecker. Quelle: Fraunhofer IAIS
Wie können Low Code-/No Code-Strategien die Resilienz von Unternehmen steigern?
Low-Code und No-Code-Umgebungen vereinfachen das Programmieren. Grafische Oberflächen, auf denen sich vorgefertigte Code-Bausteine zusammensetzen lassen, können einerseits von anwendungsnäherem Personal bedient werden. Andererseits erleichtern sie IT-Fachleuten die Arbeit, so dass sie mehr Zeit gewinnen für anspruchsvollere Aufgaben, die dem Unternehmen mehr Handlungsspielräume eröffnen.
Zu den Pionieren einer No-Code-Strategie zählt übrigens unsere digitale Bildungsinitiative „Roberta“, die im vergangenen Jahr ihr 20-jähriges Bestehen gefeiert hat. Als innovatives Ausbildungskonzept für den Informatikunterricht an Schulen entwickelten wir mit dem „Open Roberta Lab“ eine frei verfügbare grafische Umgebung, die das Programmieren lernen kinderleicht macht – von den ersten Schritten bis hin zur Programmierung intelligenter Roboter mit vielerlei Sensoren und Fähigkeiten. Inzwischen wird das Lab auch in der Berufsausbildung und zu professionellen Zwecken eingesetzt. Mittlerweile verbucht „Open Roberta“ mehr als zehn Millionen Nutzerinnen und Nutzer aus mehr als 120 Ländern weltweit.
Übrigens wird an dieser Stelle auch die Künstliche Intelligenz (KI) massiv an Bedeutung gewinnen. In den letzten Monaten haben die GPT-Modelle von OpenAI zum Beispiel für Furore gesorgt. Solche großen KI-Modelle können Texte und sogar Bilder von beachtlicher Qualität generieren. Dies ist auch mit Code möglich, indem die Modelle zu einer Programmieraufgabe selbst Codevorschläge erzeugen oder vorgelegten Code verbessern. Auch wenn man sich der Qualität der Vorschläge rückversichern sollte, ist dies eine Entwicklung, die man unbedingt im Blick behalten muss.
Wie können Unternehmen durch “Digitale Zwillinge” mehr Resilienz und Wettbewerbsfähigkeit generieren?
Digitale Zwillinge sind digitale Abbilder von realen Objekten, die durch Datenverbindungen synchronisiert werden. Sensoren und das Internet of Things (IoT) spielen hier eine große Rolle. Durch Simulationen und den Einsatz von KI können mit digitalen Zwillingen Prognosen erstellt, also auch Veränderungen, Gefahren und Chancen vorhergesehen werden. So kann man entsprechend präventiv agieren. Digitale Zwillinge können also Resilienz und Wettbewerbsfähigkeit stärken. Es ist jedoch zu beachten, dass die Erstellung eines komplexen digitalen Zwillings mit vielen Attributen komplex und kostenintensiv sein kann. Wichtige Faktoren sind hier die Verfügbarkeit von Daten und ihre Qualität, die Wahl der richtigen Plattform und die Zusammenstellung eines interdisziplinären Teams aus Ingenieur*innen, Datenwissenschaftler*innen, Informatiker*innen, etc.
Mit welchen Thematiken beschäftigen Sie sich im Kontext von ML und KI?
Mit Maschinellem Lernen (ML) und Künstlicher Intelligenz (KI) beschäftigen wir uns am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS seit vielen Jahrzehnten. Die Spannbreite reicht hier vom Data Mining über Big Data Analytics und Deep Learning bis hin zu den großen KI-Modellen, deren Fähigkeiten Inhalte verschiedenster Art zu generieren oder zu transformieren in Medien und sozialen Netzen derzeit breites Interesse, Verblüffung und Sorgen auslösen.
In diesem Themenspektrum von Data Science bieten wir seit nunmehr zehn Jahren ein Fortbildungsprogramm mit Zertifikatsabschlüssen für Anwender*innen, Entwickler*innen und Entscheider*innen an. Die Schulungen sind anbieterübergreifend und stark durch die Einbindung von Open-Source-Produkten geprägt. Wir zeigen, wie man mit MLOps-Werkzeugen und -Methoden die technische Integration von ML-Lösungen in Unternehmensprozesse und -produkte vereinfachen und automatisieren kann.
Wir sind immer noch überrascht, wie heterogen die Teilnehmerschaft in den Schulungen ist. Es gibt eigentlich keine Branche, die noch nicht vertreten war und sehr kreative Ideen für die Umsetzung von ersten Use Cases entwickelte. Aus meiner Sicht ist es ganz wichtig, sich als Unternehmen frühzeitig den neuen Technologien zu stellen und zu überlegen, welche Möglichkeiten sie bieten, entweder im Effizienzgewinn oder im Aufbau neuer Geschäftsmodelle.
Darüber hinaus beschäftigen wir uns auch mit der Integrität der KI-Systeme. 2021 haben wir als Pioniere einen umfangreichen Katalog publiziert, mit dem man KI-Anwendungen systematisch auf Vertrauenswürdigkeit prüfen kann. Vertrauenswürdigkeit bezieht sich einerseits auf Verlässlichkeit, Datenschutz und Sicherheit, aber auch auf Fairness, Transparenz, Autonomie und Kontrolle. Der Prüfaufwand sollte sich nach den Risiken in diesen Dimensionen richten und kann Maßnahmen bei Entwurf, Entwicklung und Betrieb betreffen. Für die Prüfung entwickeln und nutzen wir Software-Werkzeuge, um sicherzustellen, dass eine Anwendung möglichst fehlerfrei und zuverlässig arbeitet und so bedienbar ist, wie wir es von ihr erwarten.
Mit den oben erwähnten großen KI-Modellen beschäftigen wir uns vorwiegend im Kontext der Verarbeitung und Produktion von Sprache, Text und Dokumenten. Angesichts des atemberaubenden Wettrennens, den sich US-amerikanische und chinesische Tech-Giganten gerade liefern, darf es nicht passieren, dass deutsche und europäische Unternehmen auf deren Angebote angewiesen sind und keine europäische Alternative haben. Modelle wie aktuell ChatGPT schrauben die Erwartungen sehr hoch, aber sie können per se keine Informationen und kein Wissen aus unternehmenseigenen Dokumentbeständen ziehen.
Für den Einsatz als Assistent mit Unternehmenswissen müsste ein Modell wie ChatGPT modular auf solchen, oft sensiblen Daten, nachtrainiert werden. Und diese Module sollten unter der Kontrolle des Unternehmens betrieben werden. Eine weitere Möglichkeit sind hybride KI-Lösungen, zum Beispiel die Integration eines Dokumenten-Retrievals in das KI-Modell. Retrieval-fähige Lösungen, die aus einer großen Menge von unsortierten Dokumenten spezielle Informationen bereitstellen können, haben zudem den Charme größerer Aktualität und reduzieren die Wahrscheinlichkeit der Generierung von Fehlinformationen. Wir begleiten Unternehmen bei der individuellen Weiterentwicklung von Sprachmodellen und Dialogsystemen für domänenspezifische Anwendungen.
Wir brauchen die infrastrukturellen Rahmenbedingungen, um diese Zukunftstechnologie in Europa zu gestalten. Andernfalls werden wir an einer ganz entscheidenden Stelle den Zugang zur digitalen Wertschöpfungskette verlieren – wo wir wieder bei den Themen digitale Souveränität und Resilienz wären.
Was müsste jetzt unternommen werden, um die Rahmen- und Forschungsbedingungen im Kontext großer KI-Modelle in Deutschland zu verbessern?
Wir erleben gerade eine zweite Welle der KI-Revolution, die mit der Veröffentlichung von GPT-3 durch OpenAI 2020 begonnen hat. Auf Basis riesiger Datenmengen und dem Einsatz enormer Rechenkapazität und Entwicklerressourcen haben OpenAI und seine Konkurrenten große Modelle geschaffen, die bis dahin nicht für möglich gehaltene Texte, Bilder, Programme und Dialoge erzeugen. Es stellt sich die Frage: Wer hat in Zukunft Zugang zu dieser Technologie? Und wer hat die Daten und die Ressourcen, um große Modelle zu erstellen und zu steuern? Aktuell wird die Entwicklung von wenigen großen Konzernen bestimmt, die in ihren Systemen ihr Wertesystem transportieren.
Deutschland und Europa fallen in der KI bei dieser Entwicklung hinter den USA und China zurück. Hochqualifizierte Absolvent*innen verlassen uns, die Start-up-Landschaft leidet in den multiplen Krisen. Angesichts der finanziellen und technischen Möglichkeiten der US-Hyperscaler sind wir auf deutsche und europäische Kooperation angewiesen. Für wettbewerbsfähige große KI-Modelle in Europa müssen Ökosysteme aus Start-ups, Forschungseinrichtungen und Unternehmen langfristig gefördert werden, die wiederverwendbare europäische KI-Modelle, kontrollierte europäische Trainingsdaten und eine europäische Infrastruktur für verteiltes Training, Nachtrainieren und Nutzung möglichst offen auf- und ausbauen sowie betreiben.
Erste Ansätze dazu sind das vom BMWK geförderte OpenGPT-X-Projekt zur Entwicklung eines großen deutschen Sprachmodells und die LEAM-Initiative zum Aufbau einer großen Recheninfrastruktur für das Training von großen KI-Modellen. Wir brauchen die infrastrukturellen Rahmenbedingungen, um diese Zukunftstechnologie in Europa zu gestalten. Andernfalls werden wir an einer ganz entscheidenden Stelle den Zugang zur digitalen Wertschöpfungskette verlieren – wo wir wieder bei den Themen digitale Souveränität und Resilienz wären.
Wie können Sie Unternehmen dabei unterstützen, mit neuen digitalen Geschäftsmodellen in Zukunft resilienter zu agieren? Inwieweit treiben Sie die digitale Transformation in Deutschland voran?
Wir unterstützen Unternehmen dabei, KI verantwortungsvoll für innovative Lösungen oder Dienstleistungen zu nutzen und ihr Personal zu qualifizieren. Das Spektrum der Einsatzgebiete ist breit. Prädiktive Anwendungen schützen vor Gefahren, sparen Energie und Ressourcen oder verbessern die Qualität. KI ermöglicht es uns, Informationen in großen Datenmengen effizient zu erfassen und die damit verbundenen Prozesse zu erleichtern oder zu automatisieren und so dem kommenden Fachkräftemangel entgegenzuwirken. Dabei ist wahrscheinlich einer unserer wichtigsten Schritte die Praxisvermittlung: Was haben andere schon erfolgreich erprobt und umgesetzt, was öffnet Raum für Kreativität und neue Ideen, wie lassen sich alternative Pfade beschreiten? Auch dies fördert die Resilienz einer Organisation.
Diese Seite benutzt Cookies. Mit der Nutzung dieser Seite stimmen Sie den Datenschutzeinstellungen zu.
OKEinstellungenWir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Websites besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Website anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Websites und auf die Dienste haben kann, die wir anbieten können.
Diese Cookies sind unbedingt erforderlich, um Ihnen die auf unserer Webseite verfügbaren Dienste und Funktionen zur Verfügung zu stellen.
Da diese Cookies für die auf unserer Webseite verfügbaren Dienste und Funktionen unbedingt erforderlich sind, hat die Ablehnung Auswirkungen auf die Funktionsweise unserer Webseite. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Sie werden jedoch immer aufgefordert, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Website erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten. Um zu vermeiden, dass Sie immer wieder nach Cookies gefragt werden, erlauben Sie uns bitte, einen Cookie für Ihre Einstellungen zu speichern. Sie können sich jederzeit abmelden oder andere Cookies zulassen, um unsere Dienste vollumfänglich nutzen zu können. Wenn Sie Cookies ablehnen, werden alle gesetzten Cookies auf unserer Domain entfernt.
Wir stellen Ihnen eine Liste der von Ihrem Computer auf unserer Domain gespeicherten Cookies zur Verfügung. Aus Sicherheitsgründen können wie Ihnen keine Cookies anzeigen, die von anderen Domains gespeichert werden. Diese können Sie in den Sicherheitseinstellungen Ihres Browsers einsehen.
Diese Cookies sammeln Informationen, die uns - teilweise zusammengefasst - dabei helfen zu verstehen, wie unsere Webseite genutzt wird und wie effektiv unsere Marketing-Maßnahmen sind. Auch können wir mit den Erkenntnissen aus diesen Cookies unsere Anwendungen anpassen, um Ihre Nutzererfahrung auf unserer Webseite zu verbessern.
Wenn Sie nicht wollen, dass wir Ihren Besuch auf unserer Seite verfolgen können Sie dies hier in Ihrem Browser blockieren:
Wir nutzen auch verschiedene externe Dienste wie Google Webfonts, Google Maps und externe Videoanbieter. Da diese Anbieter möglicherweise personenbezogene Daten von Ihnen speichern, können Sie diese hier deaktivieren. Bitte beachten Sie, dass eine Deaktivierung dieser Cookies die Funktionalität und das Aussehen unserer Webseite erheblich beeinträchtigen kann. Die Änderungen werden nach einem Neuladen der Seite wirksam.
Google Webfont Einstellungen:
Google Maps Einstellungen:
Google reCaptcha Einstellungen:
Vimeo und YouTube Einstellungen:
Die folgenden Cookies werden ebenfalls gebraucht - Sie können auswählen, ob Sie diesen zustimmen möchten:
Sie können unsere Cookies und Datenschutzeinstellungen im Detail in unseren Datenschutzrichtlinie nachlesen.
Datenschutz