Zurück zu den Forschungsschwerpunkten.
Cybersicherheit und Künstliche Intelligenz
Cybersicherheit und Künstliche Intelligenz – Angriffsvektoren gegen IT-Systeme verändern sich in immer kürzeren Zeitintervallen, was eine Herausforderung bei der Implementierung von Schutzmaßnahmen darstellt. Die Erkennung von Angriffsvektoren, basierend auf Signaturen, erfordert die stetige Pflege einer Liste. Das ist nicht nur aufwendig, sondern auch ineffektiv, weil neuartige Angriffsvektoren nicht erkannt werden. Die Erstellung von Heuristiken durch manuelles Feature Engineering stellt keine geeignete Alternative dar, weil sie sich nicht schnell genug an neue Angriffsmethoden anpassen kann.
Künstliche Intelligenz kann automatisiert aus großen Datenmengen Muster ableiten und erscheint daher vielversprechend. Beim überwachten Lernen erhält ein KI-Algorithmus einen Datensatz aus bereits klassifizierten Beispielen, aus denen er relevante Eigenschaften extrahiert. Das Resultat ist ein KI-Modell mit einer verallgemeinerten Sicht auf die Daten. Das Modell lernt also nicht direkt die Beispiele, sondern ein von ihnen abgeleitetes Muster. So können bisher ungesehene Daten anhand eines Musters klassifiziert werden.
Der Vorteil von KI im Bereich der Cybersicherheit liegt in der Fähigkeit neue Daten in Echtzeit verarbeiten zu können. Dadurch kann auf neuartige Angriffsvektoren, wie eine Spam-Welle mit bisher ungesehenem Inhalt, schneller reagiert werden.
So kann KI Cyber-Sicherheitsexperten bei der Priorisierung von verdächtigen Ereignissen unterstützen und (teil)autonom auf Angriffe reagieren. Des Weiteren können Maßnahmen wie Risiko-basierte und adaptive Authentifizierung durch KI verbessert werden. Hierzu hat das Institut für Internet-Sicherheit bereits ein Alert-System für Online-Banking und eine passive Authentifikation mittels Smartphone-Sensorendaten umgesetzt
Sicherheit für Künstliche Intelligenz
Diese Adaptivität von KI ist ein großer Vorteil, hat aber auch eine Kehrseite. Ein grundlegendes Problem in der Domäne Cybersicherheit ist nämlich die Tatsache, dass die Trainingsdaten in der Regel von einem Angreifer erzeugt werden, der somit die vollständige Kontrolle über diese hat. Daten wie Spam-Mails, Malware-Samples und verdächtiger Netzwerkverkehr stammen immer von einem Angreifer (sofern sie nicht synthetisch erzeugt wurden). Ein Angreifer kann diese Adaptivität gezielt ausnutzen, um das Modell zu manipulieren.
Daher beschäftigt sich das Institut für Internet-Sicherheit auch mit Angriffen auf KI-Systeme:
- Bei einer Poisoning Attack werden Trainingsdaten manipuliert oder eingeschleust, um das Verhalten eines KI-Modells zu beeinflussen.
- Bei einer Evasion Attack werden Eingabedaten erzeugt, die falsch klassifiziert werden (z. B. ein Angriffsvektor, der nicht erkannt wird).