05

Dez

2020

Penetrationstests: Gatekeeper Menschliche Intelligenz

Die Zukunft von Penetrationstests

IT-Systeme werden immer komplexer. Mit der zunehmenden Digitalisierung, dem Internet of Things, agilen Arbeitsprozessen in der Anwendungsentwicklung und neuen Services für mobile Endgeräte entstehen ständig neue Einfallstore für Cyberkriminelle. Und diese rüsten auf und setzen bei ihren Angriffen zunehmend auf Künstliche Intelligenz (KI). Wir beschreiben im vierten Teil der fünfteiligen Serie die wachsende Bedeutung von Penetrationstests und warum sie integraler Bestandteil einer IT-Sicherheitsstrategie werden müssen.

Jeden Tag verbinden sich tausende neue Webanwendungen mit dem Internet. Die Anzahl der im Internet of Things vernetzten Geräte wird von heute über 30 Milliarden auf 75 Milliarden im Jahr 2025 ansteigen, so eine Prognose von Statista und SAP. Immer mehr Unternehmen, Forschungseinrichtungen und Organisationen verlagern ihre komplette IT in die Cloud. Und da die rund 4,3 Milliarden IP4-Adressen nicht mehr ausreichten, machte der IP6-Adressraum seit 1998 340 Sextillionen IP-Adressen verfügbar.

Mit der Zunahme der Vernetzung steigt die Verwundbarkeit von Wirtschaft und Gesellschaft durch Cyber-Attacken. Denn die Basis jeder Software-Anwendung und jedes teilnehmenden Endgeräts ist von Menschen geschaffener Software-Code, der potenziell Schwachstellen beinhaltet und Einfallstore für Angreifer bietet. Und die rüsten auf. Immer häufiger treten staatliche Hacker auf, die Sabotage oder Spionage etwa im Bereich KRITIS (Kritische Infrastrukturen der Daseinsvorsorge) betreiben. Seit Covid-19 sind verstärkt Forschungsgruppen, Impfstoffentwickler und Einrichtungen des Gesundheitssystems im Fadenkreuz.

Darüber hinaus machen sich Angreifer immer schlagkräftigere Methoden und Tools zunutze, um IT-Schutzmaßnahmen effizient und intelligent zu unterwandern. Für Cyber-Attacken auf große Unternehmen kapern Angreifer klassische Rechenzentren genauso wie Teile von Cloud-Infrastrukturen, um sich ausreichend Rechenleistung für großangelegte Cyberangriffe zu beschaffen.

Immer bessere KI auf Seiten der Angreifer

Daneben setzen sie auf den Einsatz von Künstlicher Intelligenz, etwa, um Intrusion Detection (IDS), Data Leak Prevention (DLP) und Cloud Access Security Broker (CASB) zu unterwandern, typischen Netzwerkverkehr oder das Verhalten eines authentifizierten Nutzers oder seines Endgerätes zu simulieren und eigene Aktivitäten wie etwa Adversarial Attacks zu verschleiern, bei denen ein manipuliertes Eingangssignal verwendet wird, um die Arbeitsergebnisse der KI zu beeinflussen.

Die oben genannten Systeme bieten Schutz, werden aber nur so lange diese Schutzwirkung behalten, so lange sie besser und schneller lernen als die Angreifer.

Eine ähnliche Entwicklung zeichnet sich beim Einsatz von Captchas ab, die genutzt werden, um im Internet zwischen menschlichen Eingaben und denen von Robotern bzw. automatisierten Programmen zu unterscheiden, um zum Beispiel eine Newsletter-Anmeldung gegen Missbrauch zu schützen. Durch den Einsatz immer besserer KI auf der Angreiferseite wird es immer schwieriger im Netz, die Interaktion mit echten Menschen von der mit Bots zu unterscheiden. Aktuelle Captcha-Verfahren sind nicht mehr in der Lage diese Aufgabe zu erfüllen, denn mittlerweile existieren KIs, die fähig sind, Captchas wie ein Mensch zu lösen.

KI kann auch die Angriffsintensität und die Erfolgsquote bei Spear-Phishing und Advanced Persistent Threats (APT) erhöhen und gleichzeitig den Aufwand für den Angreifer verringern. Ein APT ist ein Bedrohungstyp mit dem Hauptziel, so lange wie möglich unbemerkt Daten ausspähen oder weiteren Schadcode platzieren zu können. Diese Art von Angriffen ist in der Regel politisch bzw. wirtschaftlich motiviert und zielt oft auf kritische Infrastrukturen und Behörden. Beim Spear-Phishing werden gezielt einzelne Personen ausgeforscht. Da diese Phishing-Angriffe aufgrund von im Netz verfügbaren Informationen die sehr persönlichen Interessen des Empfängers adressieren, wirken sie sehr vertrauenserweckend und verleiten ihr gut ausgewähltes Opfer so viel eher zum Anklicken des Schadcode-Links. KI kann Soziale Netzwerke und Business-Plattformen, Onlineshops und Foren durchforsten und künstliche Beziehungsnetzwerke aufbauen, um mehr über die Zielpersonen herauszufinden als es die besten Freunde oder Lebenspartner je vermögen.

Von gefakten Social-Media-Profilen aus versenden KI-gesteuerte Chatbots Kontaktanfragen an potenzielle Opfer, um nach der Annahme in den Profilen weitere Informationen zu sammeln und auszuwerten. Auf dieser Basis lassen sich persönliche Anschreiben mit fingierten Absenderadressen generieren, die aufgrund unterschiedlicher Faktoren, unter anderem einem auf Basis von KI trainierten Schreibstil, so täuschend echt wirken, dass die Anklickraten auf Anhänge mit Schadsoftware oder Links zu gefälschten Webseiten steigen.

Zur Champions League zählt sicher die Aushebelung von biometrischen Authentifizierungsverfahren, die künftig durch Fälschung oder Manipulation biometrischer Daten angreifbar werden könnten. Bei sogenannten Deep-Fakes, einer Wortkombination von Deep Learning und Fake, werden Audio, Video- oder Bilddateien mithilfe von KI mit neuen Inhalten besetzt und täuschend echt manipuliert. Sowohl für die Herstellung wie auch für die Erkennung von Deep-Fakes sind eine Vielzahl an Daten nötig, um die Algorithmen zu trainieren.

Organisationen mit dem größten Datenmaterial haben hier den größten Vorteil. Im Endeffekt spielen Technologieunternehmen wie Facebook, Google und Twitter eine entscheidende Rolle. Facebook ist bereits im September 2019 eine Partnerschaft mit Microsoft und Amazon Web Services und einer Reihe Universitäten eingegangen, um mit der Deepfake Detection Challenge ein Projekt zur Programmierung eines besseren Deepfake-Detektors zu fördern. An dem Projekt nahmen 2114 Teams aus aller ab September 2019 mit 35,000 verschiedenen KI-Modellen teil. Das beste Modell konnte 65,18 Prozent der manipulierten Videos aus einem unbekannten „Black Box“-Datensatz von 10.000 Videos erkennen. Bei einem bekannten Datensatz mit 100.000 Videos erkannte das beste Modell 82.56 Prozent.

Welche Methoden gibt es?

Wie beim regulären und gesetzeskonformen Einsatz von KI auch, werden oft bereits vorhandene Systeme, Methoden, Techniken mit Elementen von KI angereichert. Man spricht dabei oft von AI-Augmented Systems.

Eine Technik, die sich gut mit KI anreichern lässt, ist das Fuzzing. Für Hacker ist Fuzzing eine bekannte Technik, um Schwachstellen in Systemen zu finden. Hierbei werden zufällig alle möglichen Eingaben für eine Software getestet, mit dem Ziel, Fehler zu erzeugen. Dieser Prozess musste bisher manuell durchgeführt werden und ist wegen der unfassbar großen Menge an möglichen Eingaben sehr aufwändig. Durch Hinzunahme von KI kann dieser Prozess hoch automatisiert werden und dadurch werden potenzielle Schwachstellen schneller gefunden und können ausgenutzt werden. Daher nennt man diese Methode auch AI Fuzzing.

Andererseits gibt es Methoden, die direkt KI-Systeme angreifen. Machine Learning und neuronale Netze gehören zu den wichtigsten Technologien aus dem Feld der KI. Ihr Vorteil: Komplexe Algorithmen müssen nicht aufwändig von Menschen konzipiert und programmiert werden, die KI übernimmt diese Arbeit auf Basis geeigneter Trainingsdaten. Einsatz finden sie bereits heute bei Gesichtserkennung, Bildverbesserung und Mustererkennung im Allgemeinen. Eine verdeckte Manipulation dieser Trainingsdaten durch Hinzufügen oder Entfernen von Daten wird als Machine Learning Poisoning bezeichnet. Der einfachste Typ ist die sogenannte Availability Attack. Hierbei werden so viele „schlechte“ Daten hinzugefügt, dass das Modell nutzlos wird.

Gefährlicher sind Integrity Attacks, das heißt Manipulationen des Bias gegenüber bestimmten Daten, während das Modell hinsichtlich anderer Daten nicht verändert wird – eine Art Backdoor, die es erlaubt, bestimmte (schädliche) Datentypen als harmlos durchgehen zu lassen.

Werden so „vergiftete“ KIs in Verkehr gebracht und z. B. in Sicherheitssystemen eingesetzt, haben sie genau diese eingebauten Backdoors, die zu einem späteren Zeitpunkt von Angreifern unbemerkt ausgenutzt werden können. Aus diesem Grund gewinnt das Supply-Chain-Management gerade bei der KI-Entwicklung immer mehr an Bedeutung. Bei sicherheitsrelevanten Anwendungen – egal, ob es sich um Sicherheitssysteme wie IDS oder um Systeme, die hochsensible Daten verarbeiten, handelt – muss gewährleistet werden, dass der Entwicklungsprozess nachvollziehbar bleibt und Manipulationen möglichst ausgeschlossen werden.

Penetrationstests werden integraler Bestandteil einer IT-Sicherheitsstrategie

Diese Beispiele zeigen: Bedrohungen und Gefährdungen nehmen dynamisch zu, Angriffe und Methoden werden komplexer und haben massiv an Raffinesse gewonnen. KI beflügelt diese Entwicklung und kann mögliche schädliche Auswirkungen durch automatisierte oder gar autonome Prozesse noch potenzieren.

Aber auch den Teams in der Cybersecurity erlaubt KI die Entlastung von Routineprozessen und die Konzentration auf die Kernaufgaben, sie ermöglicht Echtzeitanalysen und schnelle kontextbasierte Informationsauswertung. So sind mittlerweile die ersten Security Information and Event Management Systeme (SIEM) mit KI auf dem Markt. Auch Data-Loss-Prevention-Lösungen (DLP) und Netzwerküberwachung mit KI-Funktionen in Echtzeit können die Sicherheit des Informationsverbundes erhöhen.

Darüber hinaus ist es wahrscheinlich, dass wir bald in der Lage sein werden, mit neuen KI-Werkzeugen zur Erkennung und Abwehr von Cyberangriffen effektiv zu arbeiten. Ein Konzept für ein solches Werkzeug beschreibt ein Frühwarnsystem für APT-Angriffe. APT funktionieren üblicherweise in aufeinander aufbauenden kleinen und sehr schwer zu entdeckenden Schritten. Gelingt es also, einen dieser Schritte zu vereiteln, bricht der gesamte Angriff in sich zusammen. Hierzu muss eine Entdeckung von APT in Echtzeit durch gleichzeitige Überwachung aller Zugänge zu Unknown Domains, maliziöse DNS (Domain Name System) und URL sowie Malware realisiert werden. Machine Learning wird eingesetzt, um harmlose sowie schadhafte Domains zu klassifizieren. Dabei gilt auch hier: je größer die Menge an qualitativ hochwertigen Trainingsdaten, desto präziser ist die Vorhersage. Gelingt es aber den Angreifern, diese Trainingsdaten zu manipulieren, das Machine Learning zu „vergiften“, sind wiederum sie im Vorteil. Das altbekannte Wettrüsten zwischen Angreifer und Verteidiger geht also „nur“ in eine neue Runde.

Sicher ist: Die menschliche Intelligenz wird der Gatekeeper bleiben, um IT-Infrastrukturen vor Cyberkriminellen schützen zu können. Penetrationstests etwa werden sich zu einem integralen Bestandteil kontinuierlicher Sicherheits-Audits entwickeln und ein unverzichtbares Element von IT-Sicherheitskonzepten werden. Sie sind in vielen Fällen die einzige Möglichkeit, Schwachstellen (rechtzeitig) zu erkennen. Die Zukunft wird interdisziplinären Teams aus IT-Sicherheitsexperten gehören, die fachlich auf der Höhe der Zeit sind und die Herausforderungen von morgen vor Augen haben.

Dafür braucht es Experten für KI, die programmieren und steuern können. Hierzu gehört das Anlernen von KI-Systemen mit geeigneten Trainingsdaten oder die Verringerung von False Positives, also das Erkennen von falsch-positiven Warnungen sowie die Absicherung und Überwachung der KI durch menschliche Intelligenz. Ergänzend sollten zu solchen Sicherheitsteams künftig auch IT-Forensiker gehören, die in der Lage sind, wie Cyber-Kriminelle zu agieren, um offene Flanken zu ermitteln.

Mehr über die Geschichte der Penetrationstests, berühmte Penetrationstester und Highlights im Kampf gegen Hacker lesen Sie in der fünften und letzten Folge unserer Serie.

Über die Autor:innen
Severin Quell

Director Cybersecurity Consulting, INFODAS

Matthias Szymansky

Director IT Consulting, INFODAS