Lesedauer : 3Minuten

KI ist im Gespräch – und im Einsatz – wie nie zuvor. Bei einer aktuellen Umfrage von S&P zu globalen KI-Trends sagten fast 70 % der Befragten, dass sie zumindest ein KI-Projekt produktiv nutzen. KI könnte Betriebsprozesse revolutionieren, hat aber auch neue Angriffsvektoren geschaffen und böswilligen Akteuren Möglichkeiten gegeben, denen die meisten Unternehmen derzeit noch nicht effektiv entgegenwirken können.

In den vergangenen sechs Monaten sind drei Berichte („Global Trends in AI” 2023 von S&P, „AI Priorities Study 2023” von Foundry und „Security And Privacy Concerns Are The Biggest Barriers To Adopting Generative AI” von Forrester) zum selben Ergebnis gekommen: Die Datensicherheit ist die größte Herausforderung und Hürde für Organisationen, die generative KI einsetzen möchten. Das zunehmende Interesse am Einsatz von KI hat die Menge an Daten, die Organisationen in ihren Cloud-Umgebungen speichern, stark ansteigen lassen. Es ist nicht überraschend, dass immer mehr Risiken bezüglich Sicherheit und Datenschutz auftreten, je mehr Daten über verschiedene Cloud-Architekturen hinweg gespeichert, genutzt und verarbeitet werden – besonders, wenn diese Architekturen über mehrere Länder verteilt sind.

Wenn Organisationen nicht die richtigen Schutzmaßnahmen implementieren, werden sie sofort zum attraktiven Ziel für Cyberkriminelle, was dem Incident-Response-Bericht 2024 von Unit 42® zufolge bedeutet, dass Daten immer schneller gestohlen werden. Schon heute schleusen 45 % der Angreifer bereits in den ersten 24 Stunden, nachdem sie sich Zugang zu einer Infrastruktur verschafft haben, Daten aus. In diesem neuen „Zeitalter der KI”, in dem Daten die Grundlage für alles darstellen, können nur Organisationen, die die Datensicherheit gut verstehen und ihr Priorität einräumen, das Potenzial der KI voll ausschöpfen, ohne negative Folgen in Kauf zu nehmen.

Entwicklung der Grundlage für ein effektives Datensicherheitsprogramm

Ein effektives Datensicherheitsprogramm für das neue KI-Zeitalter basiert auf drei Grundprinzipien:

Schutz der KI: KI-Implementierungen – darunter Daten, Pipelines und Modellausgaben – können nicht voneinander isoliert geschützt werden. Sicherheitsprogramme müssen berücksichtigen, in welchem Rahmen KI-Systeme genutzt werden und welche Auswirkungen das für den Schutz sensibler Daten, den effektiven Zugang und die Compliance hat.

Um das KI-Modell selbst zu schützen, müssen die Risiken des Modells, zu weit gefasste Zugriffsrechte und Verstöße in puncto Datenfluss in der gesamten KI-Pipeline identifiziert werden.

Schutz vor KI: Wie die meisten neuen Technologien ist auch die KI ein zweischneidiges Schwert. Immer mehr Cyberkriminelle missbrauchen KI, um Angriffe im großen Stil vorzubereiten und durchzuführen. Angreifer nutzen generative KI bereits, um schädliche Software sowie überzeugende Phishing-E-Mails zu erstellen und online mit sogenannten „Deep Fakes” Desinformationen zu verbreiten. Außerdem besteht die Gefahr, dass Angreifer generative KI-Tools und Large Language Models direkt manipulieren, was zu Datenlecks und vielleicht sogar zu verzerrten Ergebnissen aus den betroffenen Tools führen könnte.

Schutz mit KI: Wie kann KI zum fundamentalen Bestandteil Ihrer Abwehrstrategie werden? Die Nutzung von KI für die Abwehr bietet Verteidigern die Möglichkeit, Cyberangriffe auf bisher ungeahnte Weise vorherzusehen, zu verfolgen und zu unterbinden. KI beschleunigt die Analyse sowie die Priorisierung der gefährlichsten Bedrohungen und erspart Sicherheitsanalysten somit viele Stunden Arbeit. Außerdem kann KI Muster außerordentlich effektiv identifizieren, wodurch Bedrohungen mit einer repetitiven Angriffskette (wie Ransomware) früher erkannt und blockiert werden können.

Wenn Organisationen sich auf diese drei Prinzipien der Datensicherheit konzentrieren, können sie die Möglichkeiten von KI ruhigen Gewissens erkunden und für Innovationen nutzen – ohne befürchten zu müssen, dass sie Angreifern die Tore öffnen.