Künstliche Intelligenz braucht ethische Leitlinien

Der Siegeszug der Künstlichen Intelligenz (KI) ist nicht aufzuhalten. Ihre Nutzung ist mit Chancen, aber auch mit Risiken verbunden. Ohne ethische Rahmenbedingungen besteht die Gefahr einer unkontrollierten Entwicklung.

Bei der Analyse, Bewertung und Entscheidungsfindung auf der Grundlage umfangreicher Datensätze schafft KI bereits in unzähligen Szenarien Mehrwert, etwa bei Spracherkennungsalgorithmen, die Alexa und Siri unterstützen, oder bei der Bilderkennung, die von vernetzten Autos verwendet wird, um potenzielle Gefahren zu identifizieren. Die Vorteile von KI sind unbestritten, sie zeigen sich vor allem in Bereichen, in denen große Datenmengen analysiert und bewertet werden müssen. KI-Systeme sind besser in der Lage als der Mensch, massive Datenmengen zu analysieren, mit unterschiedlichsten Referenzpunkten zu korrelieren und damit bessere Entscheidungsgrundlagen zu schaffen. Die Folge ist, dass der Mensch schnellere und fundiertere Entscheidungen treffen kann.

Doch die KI-Nutzung ist gleichzeitig mit Gefahren verbunden. Es besteht das Risiko, schnell in Abhängigkeit zu geraten, da die Ergebnisse und Entscheidungen von KI aufgrund der Komplexität und analysierten Datenvolumina nicht mehr nachvollziehbar sind. Umso wichtiger ist auch das richtige Anlernen der Maschinen, um letztlich Algorithmen vertrauen zu können. Schließlich hängt die Qualität der KI immer von der Qualität der Daten während des Lernprozesses ab. Schlechte oder manipulierte Daten führen zwangsläufig zu merkwürdigen, unrealistischen oder sogar gefährlichen Ergebnissen.

Es gibt zum Beispiel bereits Fälle, in denen Vorurteile der Vergangenheit dazu geführt haben, dass die KI falsch angelernt wurde und im Recruiting Maschinen in der Vorauswahl Frauen ausgeschlossen haben. Es wurden einfach die alten Vorurteile der menschlichen Recruiter übernommen beziehungsweise erlernt.

Spezielle Vorsicht ist bei besonders kritischen Prozessen mit gravierenden Auswirkungen auf Mensch und Gesellschaft geboten, etwa in der medizinischen Diagnostik, wo immer der Arzt das letzte Wort haben sollte. KI kann zwar regelbasiertes Wissen und analytische Exaktheit – vorausgesetzt die Datenbasis ist ausreichend – beisteuern, aber nicht die in der Medizin ebenso wichtigen Aspekte Intuition, Kreativität und Empathie.

Auch die Energieversorgung zählt zu den kritischen Infrastrukturen. Stellen wir uns vor, eine KI kommt zu dem Ergebnis, dass ein massiver Cyber-Angriff bevorsteht. Die Empfehlung lautet, alle Systeme vom Netz zu nehmen. Die Auswirkungen auf die Gesellschaft – etwa ein vollständiger regionaler Stromausfall – sind der KI aber nicht beigebracht worden. Sie ist Experte für nur eine einzige Sache: das Erkennen von Cyber-Angriffen.

Vor allem auch das Autonome Fahren kann die mit der KI-Nutzung verbundenen Herausforderungen in aller Drastik verdeutlichen. Eine KI, die in einer Unfallsituation über Leben und Tod entscheidet, ist keine Zukunftsmusik mehr. Bevor es aber soweit kommen darf, müssen zahlreiche juristische und ethische Fragen geklärt werden. Außerdem stellt sich dabei die Frage, wer letztlich die von den Automobilherstellern entwickelten selbstlernenden Algorithmen kontrolliert.

 

„Ziel muss sein, klare Regelungen für den künftigen KI-Einsatz zum Wohl von Gesellschaft und Wirtschaft zu finden.“

 

Diese Beispiele zeigen zum einen die Begrenztheit und das Risiko eines isolierten und unkontrollierten KI-Einsatzes. Und zum anderen verdeutlichen sie die Notwendigkeit, gesellschaftliche, ethische und moralische Maßstäbe zu berücksichtigen. Doch wer setzt diese Maßstäbe und definiert entsprechende Regeln – in den Unternehmen wie in der Gesellschaft? Gefordert ist hier zunächst die Politik, sie muss die adäquaten Rahmenbedingungen schaffen, um einen sicheren KI-Einsatz zu gewährleisten und eine unkontrollierte Entwicklung und nicht mehr zu kontrollierende Dynamik zu verhindern.

Für den häufig anzutreffenden Skeptizismus im Sinne einer KI-Dystopie besteht aktuell noch kein Anlass, denn die KI-Problematik ist inzwischen in Politik, Wissenschaft und Unternehmen durchaus angekommen. So wurde 2018 von der Bundesregierung die Datenethikkommission eingesetzt, die für ethische Fragen rund um Digitalisierung, Künstliche Intelligenz, Algorithmen und Datenpolitik zuständig ist. Bis Herbst 2019 soll sie Handlungsempfehlungen geben und Regulierungsmöglichkeiten vorschlagen.

Und auch Unternehmen und Wissenschaft greifen das KI-Ethik-Thema verstärkt auf. Erst Anfang 2019 hat zum Beispiel Facebook angekündigt, das neue Institute for Ethics in Artificial Intelligence der Technischen Universität München (TUM) mit 6,5 Millionen Euro zu unterstützen. Das Institut hat sich zum Ziel gesetzt, die ethischen Implikationen der KI zu erforschen.

Die Diskussion, wie wir zu einem ethischen, moralischen und besonnenen Umgang mit KI kommen, ist somit in vollem Gange und sie wird uns noch für einige Zeit beschäftigen. Ziel muss sein, klare Regelungen für den künftigen KI-Einsatz zum Wohl von Gesellschaft und Wirtschaft zu finden.

* Kai Grunwitz ist Senior Vice President EMEA bei NTT Security