„ChatGPT zeigt, dass KI nicht per se gut oder böse ist“

Wir durften ein sehr spannendes Interview mit Eran Shimony, Principal Security Researcher bei CyberArk, führen um der Rolle von KI bei der Cybersicherheit nachzugehen.

In einem Blog Post greift CyberArk die ChatGPT-API auf und lässt sie, vereinfacht gesagt, einen Virus schreiben. Das Besondere ist aus meiner Sicht, dass es quasi keiner Vorkenntnisse bedarf, außer die API bedienen zu können. Wie lange wird es noch dauern, bis wir ein Wettrennen gute KI, böse KI sehen werden?
IT-Sicherheit ist eigentlich schon immer ein Wettrennen zwischen Angreifern und Verteidigern. Beide Seiten nutzen dabei alle ihnen zur Verfügung stehenden Mittel, und seit einiger Zeit ist das eben auch KI. Wobei ChatGPT schön zeigt, dass KI nicht per se gut oder böse ist: Sie kann extrem nützlich sein und Menschen im Alltag helfen, lässt sich aber ebenso missbrauchen. In unserer Untersuchung lieferte ChatGPT über die API polymorphen Schadcode, der direkt aus dem Speicher eines Zielsystems ausgeführt wird und im Dateisystem keinerlei Spuren hinterlässt. Nicht jedes Security-Tool vermag so etwas zu entdecken. Allerdings ist es wahrscheinlich, dass diese oder ähnliche Fähigkeiten der KI früher oder später auch zur Abwehr von Bedrohungen eingesetzt werden können.

Welchen Schaden kann eine mit ChatGPT erstellte Malware anrichten?
Den gleichen wie andere Malware auch, denn ChatGPT kann sie mit den gleichen Funktionen ausstatten – sei es die Verschlüsselung von Daten, das Mitschneiden von Tastatureingaben oder das Einschleusen von Programmcode in Anwendungen. Die Malware fragt einfach über die API bei ChatGPT nach den benötigten Funktionen und erhält dann die entsprechenden Module.

Eran Shimony ist überzeugt davon, dass KI weder gut noch böse ist. Wichtig ist, zu erkennen, wer sie warum einsetzt.

Dadurch wird die Bedrohungslage für Unternehmen noch unübersichtlicher. Wie schätzen sie die Gefahr ein? Kann man sich schützen und falls ja, wie?
Dass sich Security-Tools mit Malware, die von ChatGPT erstellt wurde, umgehen lassen, ist tatsächlich ein ernsthaftes Problem und sollte nicht auf die leichte Schulter genommen werden. Allerdings sehen wir aktuell noch keine Hinweise, dass die KI bereits in dieser Art und Weise genutzt wurde – da waren wir offenbar die ersten. Und wir haben auch keinen Code für eine funktionsfähige Malware veröffentlicht. Dennoch sollten sich Unternehmen mit dem Thema auseinandersetzen. Sie könnten etwa die Kommunikation mit den OpenAI-Servern überwachen und als sicherheitskritisch einstufen. Aber schon ein einfacher Proxy reicht, um das zu umgehen. Im Grunde gibt es noch nicht viele Sicherheitsempfehlungen.

Auf Seiten der Verteidiger kommt KI schon länger zum Einsatz. Welche Aufgaben übernimmt sie, in welchen Bereichen hilft sie konkret?
KI hilft bei der Erkennung von Bedrohungen und bei der automatisierten Einleitung von Gegenmaßnahmen. So lassen sich KI-Modelle sehr gut darauf trainieren, ungewöhnliches oder verdächtiges Verhalten aufzuspüren, beispielsweise Anomalien im Netzwerk-Traffic oder Login-Versuche von unbekannten Standorten. In solchen Fällen können sie dann schneller als jeder Mensch reagieren und unter anderem Systeme isolieren oder Zugriffe sperren. Auch bei der Automatisierung repetitiver Aufgaben oder dem Erstellen von Reports ist KI eine große Hilfe und nimmt Security-Teams viele Tätigkeiten ab, sodass sie mehr Zeit für strategische Aufgaben haben. Darüber hinaus spielt KI auch bei der Authentifizierung eine wichtige Rolle, etwa bei der Sprach- oder Gesichtserkennung, und kann Attacken simulieren, um Sicherheitsmaßnahmen zu testen und Schwachstellen aufzuspüren.

Wie ist der Stand der Dinge im Hinblick auf die “Anti-Viren-Software der Zukunft”?
Einzelne Technologien reichen nicht mehr aus, gebraucht wird ein mehrschichtiger Schutz. Er kombiniert klassische AV-Technologien mit EDR oder XDR, um unbekannte Bedrohungen durch lückenloses Logging und die Auswertung der Log-Daten mit Machine Learning aufzuspüren, und ergänzt dies um die konsequente Kontrolle von Berechtigungsvergaben und Zugriffen.

Generative KI wie ChatGPT verändert nicht nur die IT-Sicherheit, sondern auch andere Bereiche. Wo sehen sie die größten Auswirkungen?
KI, die automatisch Inhalte generiert, kann Menschen in sehr vielen Bereichen unterstützen, etwa bei Datenauswertungen oder im Kundenservice. Das ist wirklich toll und schafft Freiräume für strategische und kreative Tätigkeiten, die spannender sind und einen größeren Wert für ein Unternehmen haben. Darüber hinaus entstehen viele neue Jobs rund um die Entwicklung, das Training und den Betrieb der KI. Allerdings könnte sich der Mangel an qualifizierten Fachkräften in diesen Disziplinen dadurch noch verschärfen. Und natürlich fallen auch Jobs weg, weil KI bestimmte Aufgaben übernimmt und die Nachfrage nach bestimmten Skills sinkt, vor allem im Bereich der Content-Erstellung.


Bildquelle / Lizenz:

Foto von Om siva Prakash auf Unsplash


Creative Commons Lizenz CC BY-ND 4.0

Sie dürfen:

Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.

Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.


Unter folgenden Bedingungen:

Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.

Keine Bearbeitungen — Wenn Sie das Material remixen, verändern oder darauf anderweitig direkt aufbauen, dürfen Sie die bearbeitete Fassung des Materials nicht verbreiten.