Auch ein Jahr nach Inkrafttreten der DSGVO hat sich die Situation der Datensicherheit nicht wesentlich verbessert. Mehr noch: Das Datensicherheitsniveau ist eher noch gesunken. Zu diesem erschreckenden Ergebnis kommt der Datenrisiko-Report 2019: Demnach sind durchschnittlich 22 Prozent der Ordner eines Unternehmens für jeden Mitarbeiter zugänglich und in jedem zweiten Unternehmen können alle Mitarbeiter auf mehr als 1.000 sensible Dateien zugreifen. Und dies angesichts aktueller Bedrohungen wie Ransomware, gezielter Angriffe durch immer professioneller agierende und teilweise staatlich geförderte Hacker und Insider-Attacken.

Erschwert wird die Situation zusätzlich durch die kontinuierlich wachsende Anzahl hybrider Umgebungen, in denen Daten nicht mehr nur lokal, sondern zusätzlich in der Cloud gespeichert werden. Hier einheitliche Richtlinien und Verfahrensweisen durchzusetzen, stellt die Sicherheitsverantwortlichen vor große Herausforderungen.

Das größte Problem stellen dabei die unstrukturierten Daten dar, also Daten, die außerhalb von geschlossenen Systemen wie Datenbanken gespeichert werden. Und diese Daten finden sich nahezu überall verstreut in den Unternehmenssystemen, etwa auf diversen File- und Mail-Servern. Und diese Art Daten wird immer umfangreicher: Laut den Analysten von IDG nehmen unstrukturierte Daten jährlich um 62 Prozent zu – bis 2022 werden 93 Prozent der Dateien als unstrukturierte Daten vorliegen. Aber nicht nur das Volumen sollte einen aufmerken lassen: Diese Datein bergen in aller Regel die wertvollsten (und dadurch höchst gefährdeten) Informationen eines Unternehmens: von Mitarbeiter- und Kundendaten über Produktions- und Strategiepläne bis zu geistigem Eigentum. Deshalb ist es essenziell für Unternehmen, genau zu wissen, wo welche Daten gespeichert sind, wer darauf Zugriff hat und wer darauf Zugriff haben sollte.

 

Ordnung ins Chaos bringen

Der erste Schritt, um Ordnung in das eigene Datenchaos zu bekommen, ist eine umfassende Analyse der Umgebung, eine entsprechende Risikobewertung und -priorisierung sowie eine Klassifizierung der Daten. Es ist eigentlich ganz logisch: Man kann nur das schützen, was man kennt. Und natürlich ist nicht jede Datei gleich wichtig, sensibel oder vertraulich. Bei den vorhandenen Unmengen an Daten kommt man jedoch nicht um Automatisierung herum: Die Untersuchungen des Datenrisiko-Reports ergaben, dass jedes gespeicherte TB eines Unternehmens durchschnittlich 1,46 Millionen Dateien enthält. In diesem Zusammenhang sollten auch veraltete, länger nicht genutzte oder nicht mehr benötigte Daten aufgespürt und nach zuvor festgelegten Regeln archiviert, gelöscht oder in Quarantäne verschoben werden. Hierbei darf es natürlich keinen Unterschied machen, wo die Daten gespeichert wurden, sei es on-premises oder in der Cloud.

Sobald identifiziert wurde, welche Daten wo gespeichert sind, kann man sich der Frage zuwenden, wer darauf zugreift und – noch wichtiger – wer überhaupt darauf zugreifen sollte. Grundsätzlich ist es ratsam, Zugriffsrechte nach dem „need-to-know“-Prinzip zu vergeben. Nur diejenigen Mitarbeiter, die für ihre Arbeit tatsächlich Zugriff benötigen, sollen ihn auch erhalten. Um zu erkennen, wer Zugriff braucht, wer Zugriff hat und wer tatsächlich auf bestimmte Daten zugreift, sollte man auf intelligente, auf Maschinellem Lernen basierende Lösungen setzen, die zudem eine bidirektionale Clusteranalyse verwenden: Dies ermöglicht es, Nutzer zu lokalisieren, die Zugriff auf Dateien haben, die sie für ihre Tätigkeit nicht brauchen. Diese zu weit gefassten Zugriffsrechte können dann einfach – und ohne betriebliche Abläufe zu stören – reduziert werden.

Auffälliges Verhalten erkennen

Mit diesen beiden Schritten hat man eine solide Grundlage gelegt und das Risiko für Datenpannen und -diebstähle schon deutlich verkleinert. Um sich aber vor akuten, echten Bedrohungen zu schützen, muss man in der Lage sein, auffälliges Verhalten zu erkennen. Auch hier kommen Automatisierung und Maschinelles Lernen ins Spiel: Zunächst muss festgestellt werden, welches Verhalten (für welche Nutzer und Nutzergruppen) als „normal“ anzusehen ist. Hierzu „beobachtet“ die Lösung die Zugriffe eine gewisse Zeit und lernt so, wer in welchem Umfang auf welche Art von Daten zugreift. Mittels intelligenter Nutzerverhaltensanalyse ist man dann in der Lage, abnormales Verhalten schnell zu identifizieren, etwa der Login von einem unüblichen Ort aus (dies könnte auf gestohlene Zugangsdaten hinweisen), ungewöhnliche Zugriffszeiten (möglicherweise ein Indiz für eine Insider-Bedrohung) oder auch das Öffnen enorm vieler Daten innerhalb kürzester Zeit (typisches Malware-Verhalten). Anhand von Bedrohungsmodellen, denen festgelegte Grenzwerte, statistische Analysen und maschinelles Lernen zugrunde liegen, wird die Bedrohungserkennung durch die Identifizierung spezieller Verhaltensweisen und Aktivitäten automatisiert. Ebenso können in bestimmten Situation entsprechend Abwehrmaßnahmen automatisiert eingeleitet (etwa Benutzersitzungen abbrechen oder Maßnahmen in anderen Systemen auslösen) oder die Sicherheitsverantwortlichen informiert werden, um weitere Schritte zu veranlassen.

Lokale Speicher und Cloud unter einen Hut bringen

Sämtliche genannten Punkte müssen ganz unabhängig davon gelten, wo die Daten gespeichert sind. Auch in der komplexen, hybriden Welt, müssen die Daten sowohl in der Cloud als auch on-premises gleich gut und effizient geschützt werden. Das Problem: Cloud-Security-Lösungen haben in aller Regel keinen Zugriff auf und keine Informationen über die lokale Infrastruktur, während die meisten lokalen Sicherheitsansätze blind sind für das, was in der Cloud geschieht. Umfassende Sicherheit kann es entsprechend nur geben, wenn die Sicherheitsverantwortlichen eine einheitliche Sicht auf ihren gesamten Datenbestand haben. Nur durch entsprechende durchgehende Transparenz kann sichergestellt werden, dass nur die richtigen Personen zu jeder Zeit Zugriff auf die richtigen Daten haben. Denn am Ende des Tages darf es für die Datensicherheit keinen Unterschied machen, wo die Daten gespeichert sind.

Unser Gastautor

Thomas Ehrlich, Country Manager DACH und Osteuropa bei Varonis Systems

Seit April 2017 verantwortet Thomas Ehrlich als Country Manager DACH und Osteuropa das Wachstum und die Positionierung von Varonis in dieser Region, dessen Sicherheitslösungen Daten vor Insider-Bedrohungen und Cyber-Attacken schützen. Zuvor war er seit 1999 beim Datenspeicherungs- und -managementspezialisten NetApp in verschiedenen Positionen tätig, zuletzt als Vice President Global Accounts. Nach seinem Studium der Wirtschaftsinformatik arbeitete er zudem als Systemingenieur bei Silicon Graphics.

Ihr direkter Kontakt zu Thomas Ehrlich:

Mail: tehrlich@varonis.com

LinkedIn: https://www.linkedin.com/in/ehrlichthomas/

Xing: https://www.xing.com/profile/Thomas_Ehrlich5

Aufmacherbild / Quelle / Lizenz

Bild von kai kalhh auf Pixabay

CC BY-ND 4.0 DE

 

 

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.