AI Security Posture Management (AI-SPM)

Verschaffen Sie sich Transparenz und Kontrolle über AI-Modelle, generative AI (GenAI) und die AI-Lieferkette und blockieren Sie neue Angriffsvektoren, bevor sie ausgenutzt werden.
Webinar zu Prisma Cloud AI-SPM

Management der AI-Sicherheit für Cloud-Sicherheitsprofis

Strategien für den Umgang mit AI-Wildwuchs und Schatten-AI-Modellen sowie die Einhaltung strenger Vorschriften in puncto AI-Sicherheit
Einsatz von Artificial Intelligence (AI)
WORAUF ES ANKOMMT

Eine überstürzte Einführung von AI/ML kann dazu führen, dass die genutzten AI-Modelle beschädigt oder missbraucht und/oder Daten unbeabsichtigt offengelegt werden.


Informieren Sie sich über unseren Ansatz für die AI-Datensicherheit. Blogbeitrag lesen

  • Neue AI-Angriffsvektoren

    Wer beim Implementieren neuer Pipelines und Umgebungen nicht auf einheitliche, infrastrukturweite Transparenz achtet, macht die eigene Infrastruktur möglicherweise anfällig für neue Angriffe.

  • Modellwildwuchs

    AI-Modelle sollten systematisch in einem Katalog erfasst werden, um Schatten-AI-Modellen, Complianceverstößen und der Datenausschleusung durch AI-gestützte Anwendungen vorzubeugen.

  • Unzureichende Governance

    Neue Gesetze und Vorschriften verlangen strikte Kontrollmaßnahmen rund um die Nutzung von AI-gestützten Anwendungen und von Kundendaten, die in diese eingespeist werden.

Unternehmensweite Vorteile

Schutz und Kontrolle von AI-Infrastrukturen, ‑Nutzung und ‑Daten

Schöpfen Sie die bahnbrechenden Vorteile von KI und Large Language Models (LLMs) voll aus, ohne Ihre Infrastruktur zu gefährden. Prisma® Cloud AI Security Posture Management (AI-SPM) bietet Ihnen mehr Transparenz und Kontrolle über die drei kritischen Komponenten Ihrer KI-Sicherheit: die für Training und Inferenz genutzten Daten, die Integrität Ihrer KI-Modelle und den Zugang zu bereitgestellten Modellen.

  • Decken Sie unsichere oder unbefugte Nutzung von AI-Modellen auf.
  • Vermeiden Sie eine Offenlegung von Daten aus AI-Systemen.
  • Halten Sie aktuelle und zukünftige Vorschriften ein.

    Schutz und Kontrolle von AI-Infrastrukturen, ‑Nutzung und ‑Daten

    Infografik: AI-Risikoanalyse

    • Klassifizierung der Trainingsdaten
    • Governance des Zugriffs auf Modelle
    • Verzeichnis der aktiven Modelle
    • Vermeidung von AI-Missbrauch
    • AI-Angriffspfadanalyse

    Unser Ansatz für die AI-Sicherheit

    PRISMA CLOUD

    Übersicht über das Ökosystem der AI-Anwendungen

    Erstellen Sie einen Katalog aller AI-Anwendungen und ‑Modelle sowie der damit verbundenen Ressourcen. Identifizieren und rekonstruieren Sie die Herkunft der in Ihren Anwendungen genutzten AI-Komponenten.

    • Katalogisierung von AI-Anwendungs-Stacks

      Erstellen Sie einen Katalog aller AI-Anwendungen und ‑Modelle sowie der damit verbundenen Ressourcen.

    • AI-Herkunft

      Identifizieren und rekonstruieren Sie die Herkunft der in Ihren Anwendungen genutzten AI-Komponenten und Datenquellen.

    • Verzeichnis der aktiven Modelle

      Katalogisieren Sie die genutzten AI-Modelle und identifizieren Sie Updates.

    Erkennung, Sicherung und Governance von AI und Daten
    Risikoanalyse für AI-Modelle

    Risikoanalyse für AI-Modelle

    Decken Sie Sicherheitslücken in der AI-Lieferkette sowie Fehlkonfigurationen in AI-Modellen und mit ihnen verbundenen Cloud-Ressourcen auf, die zur Manipulierung, zum Missbrauch oder zum Diebstahl Ihrer Assets genutzt werden könnten.

    • Prävention von Modellmanipulation und -diebstahl

      Ermitteln Sie, ob Angreifer eine Funktionalität nachahmen könnten.

    • Aufdeckung von Fehlkonfigurationen

      Identifizieren Sie Ressourcen und Modelle mit zu weit gefassten Zugriffsrechten.

    • Vermeidung unsicherer Plug-in-Designs

      Identifizieren Sie Agenten/Workloads, die anfällig sind oder zu weit gefasste Zugriffsrechte haben.

    Modell- und ressourcenübergreifende Datensicherheit

    Bei der Bearbeitung von Modelldaten besteht immer das Risiko, dass Sicherheitslücken und Verzerrungen entstehen, Daten offengelegt werden oder Datenschutz-, Sicherheits- oder andere Richtlinien und Compliancevorgaben missachtet werden.

    • Klassifizierung des AI-Stack

      Identifizieren Sie sensible Daten in den von Ihren AI-Modellen genutzten Trainings- und Referenzdaten, Bibliotheken, APIs und Daten-Pipelines.

    • Überwachung sensibler Daten

      Verfolgen und verwalten Sie Datenlecks, das Risiko von Datenmanipulationen sowie Sicherheits- und Datenschutzverstöße.

    • Priorisierung von Sicherheitslücken

      Räumen Sie Sicherheitslücken in Infrastrukturen, in denen AI-Anwendungen mit Zugriff auf sensible Daten gehostet werden, eine hohe Priorität ein.

    Bedrohungserkennung und -abwehr in Echtzeit

    Von Innovatoren weltweit genutzt

    Lesen Sie, wie diese Kunden ihre Daten mit Prisma Cloud schützen

    Fordern Sie eine Demo mit einem KI-Profi an

    Welcher Bereich interessiert Sie am meisten?

    Bitte lösen Sie das reCAPTCHA, um das Formular zu senden.
    Durch das Absenden dieses Formulars akzeptieren Sie unsere Nutzungsbedingungen. Lesen Sie unsere Datenschutzerklärung.

    Quellen

    Data Security Tip Sheet, Palo Alto Networks, August 2023; The Total Economic Impact Of Palo Alto Networks Prisma Cloud, Forrester Consulting, November 2023.