Anzeige


„Wir neigen dazu, KI-Systeme zu vermenschlichen“

Peter van der Putten: „Es gibt eine ganze Reihe von Anzeichen dafür, dass KI die Kindheitsphase verlassen hat und an der Schwelle zum Erwachsenwerden steht. Die Diskussionen über Ethik und der Wandel von weicher Selbstregulierung hin zu harten Gesetzen zum Beispiel.“

Die TREND-REPORT-Redaktion sprach mit Peter van der Putten, Director Decisioning & AI Solutions bei Pegasystems über die Frage, wie sich KI weiterentwickeln muss.

Sie gehen davon aus, dass KI aufgrund von Gesetzen und Regularien künftig ethischer und verantwortungsvoller sein wird. Was zeichnet eigentlich eine ethische und verantwortungsvolle KI aus?
Nehmen wir eine KI für automatisierte Entscheidungen, die beispielsweise darüber befindet, ob jemand einen Kredit erhält, ob nach einem Schadensfall ein Versicherungsanspruch besteht oder ob eine Finanztransaktion betrügerisch ist. Solche KI-Systeme müssen drei wichtigen Grundsätzen folgen: Nichtdiskriminierung und Fairness, Erklärbarkeit sowie Schadensverhütung – sprich: der Zweck der KI darf kein schlechter sein, und die KI darf sich auch nicht missbrauchen lassen.

Wie erreicht man diese Ziele, wie müsste eine solche KI designt und trainiert werden?
Insbesondere die Entwicklung einer diskriminierungsfreien und fairen KI ist sehr komplex. Denn wer entscheidet, abgesehen von rechtlichen Anforderungen, was fair ist und wer geschützt werden muss? Zudem kann die Beseitigung eines Vorurteils über eine Personengruppe leicht zu einer Benachteiligung einer anderen führen.
Um Bias zu beseitigen, muss man zunächst den Bias-Level einer bestimmten automatisierten Entscheidung verstehen. Das geht über das oft besprochene Problem von Bias in Vorhersagemodellen hinaus – die Benachteiligung kann auch durch Logik und Regeln verursacht werden oder durch falsche Daten. Durch die Simulation von automatisierten Entscheidungen kann man die Auswirkungen des Bias erkennen und die Ursachen untersuchen, etwa ob den Modellen die Vorurteile antrainiert wurden oder ob sie sich durch falsche Annahmen in der Logik eingeschlichen haben. Wenn man das weiß, ist es möglich, die Vorurteile zu korrigieren – entweder durch automatisierte Methoden, die Vorhersagen und Entscheidungen neu gewichten, oder, noch besser, durch die Beseitigung der Ursache des Problems.

Und wie sieht es mit Erklärbarkeit und Schadensverhütung aus?
Erklärbarkeit ist leichter umzusetzen. Bei wichtigen Entscheidungen sollten wir schlicht nachvollziehen können, wie die KI zu der Entscheidung gekommen ist. Es gibt bewährte Methoden, die die Vorhersagen von Machine-Learning-Modellen zu erklären vermögen, selbst wenn es sich um eine Black Box handelt. Dennoch ist es wichtig zu verstehen, dass die Entscheidungen oft von einer großen Zahl von Modellen und Regeln gesteuert werden – ganz so einfach ist es also meist doch nicht. Zudem sollte man jede automatisierte Entscheidung auch dem spezifischen Anwender oder Zielpublikum erklären können, unabhängig davon, ob es sich um einen Call-Center-Agent, einen Kunden oder einen Bürger handelt. Das Zielpublikum besteht nicht nur aus Data Scientists.
Das wichtigste Prinzip für eine ethische und verantwortungsvolle KI ist schließlich die Schadensverhütung. Man kann durchaus ein transparentes und faires KI-System schaffen, das böse Absichten verfolgt und viel Schaden anrichtet. Aus diesem Grund enthalten viele Regulierungsvorschläge wie die jüngsten Entwürfe für eine EU-Verordnung auch die Schadensverhütung als Schlüsselelement. Sicherzustellen, dass KI für einen guten Zweck genutzt wird, geht aber über Regulierung hinaus. Für den Erfolg von KI-Initiativen ist entscheidend, dass sie die Bedürfnisse von Organisationen des öffentlichen und privaten Sektors mit den Bedürfnissen der Bürger oder Kunden in Einklang bringen.

Welche der vielen regulativen Initiativen, die auf Künstliche Intelligenz einwirken sollen, werden aus Ihrer Sicht maßgeblich sein?
Die einzelnen EU-Staaten verfolgen teilweise eigene Initiativen, KI zu regulieren und ethisch zu gestalten. Ich denke aber, dass letztlich die EU-Vorgaben das entscheidende Rahmenwerk sein werden. Diese haben eine sehr breite Definition von KI, was sinnvoll ist – denn für einen Kunden oder Bürger spielt es keine große Rolle, ob eine automatische Entscheidung mit modernem Machine Learning oder eher klassischer KI-Logik und statistischen Methoden getroffen wird. Wenn man einen Kredit nicht erhält oder eine Transaktion als betrügerisch eingestuft wird, zählt nur, dass die Entscheidung fair und transparent war.
Die EU-Regeln haben sich zudem weiterentwickelt und fokussieren sich nicht mehr nur auf ethische Prinzipien wie Fairness und Transparenz. Inzwischen berücksichtigen sie auch den Einsatzzweck eines KI-Systems und das Risiko, Schaden anzurichten. Bei der Umsetzung haben die Mitgliedsstaaten einigen Spielraum. Sie können eigene Behörden benennen, die über die Einhaltung der Regeln wachen und ein zentrales Register mit KI-Anwendungen pflegen, die ein hohes Risiko für Sicherheit und Grundrechte darstellen.
Natürlich geht es bei den Regeln und Vorgaben auch darum, Innovationen zu stimulieren und den Einsatz von KI voranzutreiben. Das sollten wir allerdings nicht als Wettbewerb sehen, denn einen solchen kann niemand gewinnen – der Schlüssel ist Zusammenarbeit. Hier spielen allerdings nationale Initiativen eine wichtige Rolle, denn sie werden die meisten öffentlichen und privaten Investitionen anstoßen müssen. Die EU investiert zwar auch, kann das aber nur in geringem Umfang tun.

KI steht der operative Durchbruch quasi bevor. Sie sprechen davon, dass die Anwendungen “erwachsen” geworden sind. Woran machen Sie das fest? Und wie hat sich KI insgesamt verändert?
Es gibt eine ganze Reihe von Anzeichen dafür, dass KI die Kindheitsphase verlassen hat und an der Schwelle zum Erwachsenwerden steht. Die Diskussionen über Ethik und der Wandel von weicher Selbstregulierung hin zu harten Gesetzen zum Beispiel. Solche Debatten hinken der Entwicklung exponentieller Technologien wie KI typischerweise hinterher – dass wir sie jetzt führen, zeigt, wie weit KI bereits ist.
Ob wir uns dessen bewusst sind oder nicht: KI durchdringt inzwischen unser tägliches Leben. Allein heute morgen habe ich schon von Spotify vorgeschlagene Songs gehört, mit Google nach Informationen gesucht und mich mit Siri unterhalten. Auch große, datenintensive Unternehmen wie Banken, Versicherungen, TK-Anbieter oder die öffentliche Verwaltung setzten KI in immer größerem Umfang ein. Öffnen Sie nur einen beliebigen Jahresbericht und Sie werden sehen, dass die Unternehmen wichtige strategische Ziele formuliert haben, um mit KI ihre Kunden besser zu verstehen oder Geschäftsabläufe und den Kundenservice zu optimieren.
Dabei hat sich auch verändert, wo KI eingesetzt und von wem sie genutzt wird – ja sogar, wer KI-basierte Funktionen innerhalb des Unternehmens entwickelt und betreibt. War KI früher eher ein Gadget, um das sich Innovation Labs und Data Scientists gekümmert haben, ist die Technologie mittlerweile Mainstream und findet sich fest integriert in vielen Bereichen und Prozessen. Dadurch stehen nicht mehr rein Code-basierte Ansätze im Vordergrund, die nur etwas für Data Scientists und IT-Spezialisten sind. Stattdessen verfolgen Unternehmen zunehmend Ansätze mit Low-Code und No-Code, die Geschäftsbereiche und Business-Anwender einbeziehen. Data Scientists werden weiter gebraucht, aber es gibt eine viel breitere Zielgruppe für KI – die Zahl der Anwender, die sich mit der Technologie vertraut macht und sie einsetzt, wächst.

KI kann bei evidenzbasierten Entscheidungen schon gut unterstützen und ist auch bei der Simulation von Trends und Entwicklungen eine echte Hilfe. Wie kann sie nun menschlicher werden, um beispielsweise die Interaktion mit Personen zu verbessern?
Wenn wir mit Unternehmen oder Behörden zu tun haben, neigen wir dazu, diese Organisationen zu vermenschlichen. Uns als Menschen macht aber viel mehr aus als nur Intelligenz. Das führt dazu, dass wir sogar von automatisierten Systemen nicht nur einen angemessenen IQ erwarten, sondern auch einen EQ – also emotionale Intelligenz. Die Systeme sollen unsere Emotionen und den Kontext verstehen und, noch wichtiger, moralisch agieren. Sie sollen nicht nur tun, was für sie beziehungsweise das Unternehmen richtig ist, sondern was gut für uns als Kunden ist.
Das erfordert im Prinzip ‘Artificial X’, wobei X das ist, was uns menschlich macht. Die Systeme müssen Emotionen und Beziehungen verstehen, Kreativität mitbringen und Moral beweisen. Das geht nur, wenn wir über den Machine-Learning-Hype der letzten Jahre hinauswachsen und die Systeme wieder mehr mit klassischen KI-Ansätzen wie Regeln und Schlussfolgerungen verbinden, um Machine Learning unter Kontrolle zu behalten und ethische Grundsätze einzubauen.

Das Bewusstsein für KI und der Umgang mit KI-Anwendungen haben sich in den letzten drei, vier Jahren enorm verändert – von Ablehnung über Skepsis bis Neugier. Inzwischen ist der Nutzen in vielen Business-Anwendungen klar erkennbar. Wie verändert dieser pragmatische Umgang mit Künstlicher Intelligenz die Künstliche Intelligenz selbst?
Die Entwicklung von einer coolen Technologie hin zu etwas, das die Welt positiv verändert, wird sich nur noch beschleunigen. Je mehr Wirkung KI-Anwendungen entfalten, desto mehr Investitionen werden fließen und desto schneller wird der Rollout neuer Anwendungen vonstatten gehen. Auf Forschungs- und Entwicklungsseite wird KI zudem mehr und mehr genutzt, um KI weiterzuentwickeln und zu verbessern, sodass KI noch leistungsstärker wird und in weiteren Bereichen zum Einsatz kommen kann.
Wie schon erwähnt, bedeutet das aber auch, dass KI runder werden und bestimmten Grundsätzen folgen muss, um verantwortungsvoll und ethisch zu sein. Zudem sollten wir Menschen und Computer nicht mehr nur unter dem Blickwinkel der Intelligenz betrachten. Die enormen Fortschritte, die wir in der Erforschung und beim Einsatz von KI gemacht haben, werden meines Erachtens dazu führen, dass wir bescheidener auf das bisher Erreichte schauen und uns klar wird, dass wir bislang nur an der Oberfläche dessen kratzen, was uns menschlich macht.

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.