KI-Modell-Sicherheitsscanning: Best Practices für Cloud-Sicherheit

Wiz Expertenteam
Wichtige Erkenntnisse
  • Das Sicherheitsscannen von KI-Modellen identifiziert Schwachstellen in maschinellen Lernmodellen vor der Einführung

  • Umfassendes Scannen umfasst Modelldateien, Trainingsdaten und Schlussendpunkte

  • Die Integration mit CI/CD-Pipelines ermöglicht Shift-Left-Sicherheit für KI-Workloads

  • Laufzeitüberwachung erkennt Modellmanipulation und gegnerische Angriffe in der Produktion

  • Vereinheitlichte Plattformen bieten kontextbewusste Priorisierung über KI- und Cloud-Risiken hinweg

Verständnis des Sicherheitsscans von KI-Modellen

Das Sicherheitsscannen von KI-Modellen ist der Prozess, Ihre Modelle und deren umgebenden Stack über den gesamten Lebenszyklus hinweg auf Sicherheitsprobleme zu überprüfen. Dazu gehören statisches Artefakt-Scannen (Modelldateien, Abhängigkeiten, Serialisierungsformate), Pipeline- und Richtliniendurchsetzung (CI/CD-Gates, Zugangskontrollen), dynamische Endpunkttests (prompt injection, Missbrauchsmuster) und Laufzeitüberwachung (Verhaltensanomalien, Drifterkennung). Sie untersuchen das Modellartefakt, die Trainingsdaten, Inferenz-Endpunkte und die Cloud-Infrastruktur, die sie hostet.

KI-Modelle in der Cloud sehen sich einigen spezifischen Bedrohungen gegenüber, die man bei normalen Apps nicht sieht. Du wirst auf Begriffe wie wie Modellextraktion, Datenvergiftung, und Prompt-Injektion –Angriffsmuster, die laut einer aktuellen Umfrage von Gartner zunehmen. Diese Bedrohungen richten sich auf verschiedene Phasen des KI-Lebenszyklus, von Training bis hin zu Produktionsinferenz.

  • Modellextraktion: Ein Angreifer kopiert dein Modell's Verhalten oder Parameter durch das Senden vieler erstellter Anfragen.

  • Datenvergiftung: Bösartige Daten werden in Training oder Feinabstimmung eingeschleust, sodass sich das Modell falsch verhält oder eine versteckte Hintertür enthält.

  • Prompt Injection und adversariale Eingaben: Eingaben sind so gestaltet, dass sie Anweisungen überschreiben, Daten leaken oder unsicheres Verhalten erzwingen. Red-Teaming-Forschung (zum Beispiel diese Studie) zeigt weit verbreitete Verstöße gegen KI-Agenten auf, was zeigt, dass gegnerische Prompts Sicherheitsleitplanken in mehreren Modellarchitekturen umgehen können.

Traditionelle Sicherheitstools konzentrieren sich auf Server und Netzwerke. Sie verstehen selten Modellserialisierungsangriffe (bösartiger Code, der in Modelldateien versteckt ist), Offengelegte Trainingsdatensätze, Mitgliedschaftsinferenz (um festzustellen, ob bestimmte Daten im Trainingssatz enthalten sind), oder Modellinversion (Rekonstruktion der ursprünglichen Trainingsdaten aus Ausgaben).

Du solltest in Begriffen denken wie Toxische Kombinationen, keine einzelnen Befunde. Zum Beispiel wird eine Modellverwundbarkeit ernst, wenn:

  • Das Modell kann über das Internet aufgerufen werden.

  • Das Modell hat Zugriff auf sensible Datenspeicher.

  • Der Modellhost hat in deinem Cloud-Konto übermäßig breite Berechtigungen.

In der Praxis bedeutet das, dass Ihre größten Risiken dort liegen, wo verletzliche Modelle, mächtige Identitäten und wichtige Daten zusammentreffen. Ein globales Dienstleistungsunternehmen entdeckte auf diese Weise LLM-Schwachstellen und nutzte automatisiertes Routing, um Probleme genau an die Teams zu senden, die jedes Modell besaßen, anstatt die Sicherheit dazu zu zwingen, Eigentümer manuell zu verfolgen.

25 AI Agents. 257 Real Attacks. Who Wins?

From zero-day discovery to cloud privilege escalation, we tested 25 agent-model combinations on 257 real-world offensive security challenges. The results might surprise you 👀

Implementierung umfassender Modellentdeckung und Inventar

Modellentdeckung bedeutet, jedes KI-Asset in Ihrer Umgebung zu finden. Modellinventar führt ein aktuelles Verzeichnis dieser Vermögenswerte, was sie berühren und wem sie gehören.

Sie möchten, dass dieses Inventar Managed Services, selbstgehostete Modelle und alles Experimentelle umfasst. Das bedeutet, dass wir anfahren:

  • Verwaltete Endpunkte von Plattformen wie SageMaker, Azure ML oder Vertex AI.

  • Benutzerdefinierte Bereitstellungen auf Kubernetes, VMs oder serverlosen.

  • Trainingsinfrastruktur, Feature Stores und Batch-Inferenzjobs.

Sobald du weißt, wo die Modelle stehen, verbinde sie mit ihrer Baustelle. Das ist Modelllinie: Verfolgung eines Modells von Trainingsdaten über Pipelines bis zu Produktionsendpunkten.

  • Modellregister: Nutzen Sie oder erstellen Sie einen zentralen Ort, um jedes Produktionsmodell zu registrieren.

  • KI-Pipeline-Inventar: Map-Code-Repos, Trainingsjobs, Evaluationsschritte und Deployment-Jobs.

  • Eigentum: Tag-Models mit Teamnamen, Dienstleistungen und Geschäftseinheiten, damit Aufgaben sofort zugewiesen werden können.

Du musst außerdem auftauchen Schatten-KI-Modelle. Dies sind Modelle, die Teams eigenständig aufbauen, oft außerhalb der offiziellen Überprüfung, aber dennoch in Ihren Cloud-Konten – eine wichtige Aufgabe, da die KI-Workloads im neuesten Sysdig-Nutzungsbericht von Jahr zu Jahr schnell gewachsen sind.

Ein datengetriebenes Unternehmen, das mehrere Fusionen durchlaufen hat, nutzte diesen Ansatz, um Scan-KI Einsatz in sechs verschiedenen Umgebungen. Mit einem einzigen Inventar- und Sicherheitsgraphen konnten sie endlich sehen, welche Modelle sensible Daten nutzten und welche dem Internet zugänglich waren, unabhängig davon, welches ursprüngliche Unternehmen sie gebaut hatte.

Automatisierung der Modellscanning in CI/CD-Pipelines

Modell-Scanning in CI/CD bedeutet, dass du Modelle wie jedes andere Artefakt in deinen Build-Pipelines behandelst. Man scannt sie, bevor sie zur Bühnen- oder Produktionsphase wechseln, nicht nur nachdem sie live sind.

Beginnen Sie damit, Modell-Sicherheitsprüfungen als explizite Pipeline-Schritte hinzuzufügen. Wenn das Training oder Feinabstimmung abgeschlossen ist und eine Modelldatei erstellt wird, gilt:

  • Scanne Modellartefakte für unsichere Deserialisierung und eingebetteten Code. Bevorzuge sicherere Formate wie Safetensors gegenüber Pickle und blockiere das Laden von unvertrauenswürdigem benutzerdefiniertem Code. Pickle-Dateien können während der Deserialisierung beliebigen Python-Code ausführen, was ein direktes Risiko der Codeausführung schafft.

  • Überprüfe die Umgebung und die Container auf bekannte Schwachstellen und Fehlkonfigurationen.

  • Generiere ein SBOM für KI Das listet jedes Framework und jede beteiligte Abhängigkeit auf.

Dann setzen Sie die Regeln durch mit Policy-as-Code. Zum Beispiel könnten Sie kodifizieren: Kein Produktionsmodell kann auf einen Entwicklungsdatenspeicher verweisen. Eine einheitliche Policy-Engine, die Code, Pipelines, Cloud und Laufzeit abdeckt, hilft Teams, riskante KI-Deployments frühzeitig zu blockieren und die Richtlinien über verschiedene Umgebungen hinweg konsistent zu halten, wodurch die Wahrscheinlichkeit verringert wird, dass ein Modell mit gefährlichen Konfigurationen durchrutscht.

  • Kein Produktionsmodell kann auf einen Entwicklungsdatenspeicher verweisen.

  • Eine Bereitstellung ist nicht erlaubt, wenn kritische Schwachstellen in ML-Frameworks bestehen.

  • Für bestimmte Projekte oder Datentypen ist kein öffentlicher Endpunkt erlaubt.

Auf Kubernetes fügen Sie hinzu Zulassungskontrolleure Wie OPA Gatekeeper oder Kyverno als letztes Tor. Diese Controller fangen Deployment-Anfragen ab und setzen Richtlinien durch, bevor Ressourcen im Cluster erstellt werden.

  • Model-Signing: Verlange signierte Modellartefakte und verifiziere Unterschriften vor der Auslieferung.

  • IaC-Scannen: Validiere Terraform, Helm und andere Vorlagen, die KI-Infrastruktur aufbauen.

  • Nicht konforme Deployments: Scheitere schnell und übermittle klare Botschaften an das besitzende Team.

Ein globales Produktunternehmen nutzt dieses Muster, um Fehlkonfigurationen zu erkennen, bevor Cloud-Ressourcen erstellt werden. Du kannst denselben Ansatz anwenden, also jeder Versuch, Scan-KI Modelle und Infrastruktur entstehen automatisch bei jeder Änderung.

Absicherung von Cloud-KI-Dienstbereitstellungen

Die Sicherung von KI-Diensten in der Cloud bezieht sich darauf, wie Sie Ihre Modelle bereitstellen und verkabeln. Man kann eine völlig sichere Modelldatei haben und trotzdem ein großes Sicherheitsproblem verursachen, wenn man die falschen Deployment-Entscheidungen hat.

Konzentrieren Sie sich zunächst darauf, wie Endpunkte sichtbar werden. Stellen Sie einfache Fragen wie: "Wer kann das sagen?" und "Woher?"

  • Endpunkt-Exposition: Bevorzuge private Endpunkte gegenüber öffentlichen, wann immer du kannst. Verwenden Sie AWS PrivateLink für SageMaker-Endpunkte, Azure Private Link für Azure ML oder GCP Private Service Connect für Vertex AI. Dies hält den Schlussverkehr innerhalb Ihres VPC und außerhalb des öffentlichen Internets.

  • Netzwerksteuerungen: Verwenden Sie private Netzwerkkonstrukte wie AWS PrivateLink, Azure Private Link oder GCP Private Service Connect, um Inferenz-Endpunkte vom öffentlichen Internet fernzuhalten. Service-Meshes und interne Gateways fügen zusätzliche Ebenen zur Durchsetzung von Richtlinien hinzu.

Dann sperre die Authentifizierung und die Berechtigungen. Jeder Anruf an ein Modell sollte authentifiziert werden, und die Dienstumgebung sollte dem Least-Privilege folgen.

  • Authentifizierung: Verwenden Sie starke Authentifizierungsmuster wie Workload-Identität oder kurzlebige Tokens. Maschinenidentitäten übersteigen menschliche Identitäten in Cloud-Umgebungen bei weitem und sind oft riskanter aufgrund übermäßiger und ungenutzter Berechtigungen, die sich im Laufe der Zeit ansammeln.

  • Berechtigungen: Stellen Sie sicher, dass Modellhosts nur die spezifischen Buckets, Warteschlangen oder Geheimnisse lesen können, die sie wirklich benötigen.

Du solltest auch darauf achten, Konfigurationsdrift. Entwickler könnten eine gesperrte Konfiguration verwenden, während die Produktion leise in die Produktion abdriftet "offen für die Welt" Territorium.

  • Drift-Checks: Vergleiche regelmäßig Entwicklung, Staging und Produktion hinsichtlich Endpunkt-Exposition, Verschlüsselung, Logging und Identitätseinstellungen.

  • Verschlüsselung: Stellen Sie sicher, dass Modelldateien und Trainingsdaten im Ruhezustand mit kundenverwalteten Verschlüsselungsschlüsseln (CMEK) über AWS KMS, Azure Key Vault oder GCP Cloud KMS verschlüsselt werden. Schützen Sie den Verkehr im Transit mit TLS 1.3 für alle Inferenz-Endpunkte und Datenübertragungen.

Wenn Sie Deployments auf diese Weise sichern, Modellsicherheit Hört auf, nur das Modell zu sein, und wird Teil deiner breiteren Cloud-Hygiene.

Sample AI Security Assessment

Get a glimpse into how Wiz surfaces AI risks with AI-BOM visibility, real-world findings from the Wiz Security Graph, and a first look at AI-specific Issues and threat detection rules.

Schutz und Überwachung von Laufzeitmodellen

Laufzeitschutz bedeutet, wie man Modelle beobachtet, sobald sie tatsächlich den Datenverkehr bedienen. Hier kümmern Sie sich weniger um die Eigenschaften der Modelldatei und mehr um das Verhalten.

Beginnen Sie mit einer Deployierung Laufzeitsensoren auf Ihrer modellbereitstellenden Infrastruktur oder cloud-native Telemetrie aktivieren, wo Sensoren vorhanden sind'nicht machbar. Diese leichten, auf eBPF basierenden Komponenten können sehen:

  • Verdächtige Prozesse, die bei Modellhosts beginnen.

  • Unerwartete Dateischreibvorgänge oder Netzwerkverbindungen.

  • Container-Fluchten oder Versuche der Eskalation von Privilegierungen.

Gleichzeitig überwacht man das Verhalten der Modelle. Ungewöhnliche Muster in Anfragen oder Antworten deuten oft auf Angriffe oder Missbrauch hin. Die Verbindung von Laufzeittelemetrie mit Cloud-Identität, Netzwerkexposition und Datensensitivität, reduziert Fehlalarme und beschleunigt die Triage – man konzentriert sich auf Anomalien, die tatsächlich wichtig sind, anstatt jedem Ausreißer hinterherzujagen.

  • Verhaltensanalysen: Achten Sie auf seltsame Spitzen, seltsame Prompt-Muster oder intensives Nachforschen von Randfällen.

  • Datenexfiltration: Achten Sie auf Versuche, Daten von Modellhosts an unbekannte Ziele zu senden.

Du tracktest auch Drift. Wenn sich Modellausgaben oder Eingabeverteilungen auf unerwartete Weise ändern, kann das ein Zeichen für Vergiftung, defekte Upstream-Systeme oder einen leisen Angriff sein.

Ein Softwareunternehmen, das für kritische Workloads auf Kubernetes setzt, nutzt Laufzeitsensoren, um containerisierte Dienste zu schützen. Die gleichen Sensoren helfen ihnen nun, KI-Workloads zu erkennen, die plötzlich beginnen, ausgehende Anrufe zu tätigen oder sich anders als normale Inferenzmuster zu verhalten, was ihnen eine frühe Warnung gibt, bevor sich der Schaden ausbreitet.

Verwaltung der Modell-Lieferkettensicherheit

Modell Lieferkettensicherheit es geht darum, woher deine Modelle und ML-Komponenten kommen. Es ist einfach, ein leistungsstarkes Open-Source-Modell einzubauen und versehentlich auch eine versteckte Hintertür einzubauen.

Sie sollten den Ursprung und die Integrität aller Drittanbieter- und Open-Source-Modelle, die Sie verwenden, überprüfen. Dazu gehören vortrainierte Gewichte, Feinabstimmungskontrollen und sogar kleine Hilfsmodelle.

  • Modellherkunft: Schreiben Sie auf, woher jedes Modell stammt und wie es verändert wurde.

  • Repository-Scan: Scanne Modell-Repositories nach bösartigen Artefakten oder bekannten unsicheren Formaten. Erzwingen Sie die Modellsignatur und Überprüfung der Unterschriften vor der Nutzung, um sicherzustellen, dass die Modelle in Ordnung bleiben'Zwischen Training und Einsatz wurde nicht manipuliert.

Als Nächstes halten Sie einen klaren Kurs Software-Stückliste für jedes Modell. Dieses SBOM sollte Frameworks, Bibliotheken und Systemkomponenten auflisten, auf denen das Modell angewiesen ist.

  • Abhängigkeitsscanning: Überprüfen Sie diese Liste kontinuierlich mit Schwachstellenfeeds.

  • Regelmäßige Updates: Planen und testen Sie Updates kritischer ML-Frameworks, wenn Schwachstellen auftreten.

So vermeiden Sie, dass eine Schwachstelle im leisen Modell durch ein Upstream-Paket zu einem vollständigen Kompromiss wird. Sie behandeln Ihre KI-Modell-Lieferkette mit der gleichen Sorgfalt wie Ihre Container- oder Betriebssystem-Lieferkette, mit besonderem Fokus auf Modellmanipulation und Angriffe in der Lieferkette die einzigartig für KI sind.

GenAI Security Best Practices Cheat Sheet

This cheat sheet provides a practical overview of the 7 best practices you can adopt to start fortifying your organization’s GenAI security posture.

Governance- und Compliance-Rahmenwerke für KI-Modelle

Die Governance von KI-Modellen ist das Regelwerk, das Sie festlegen, wie Modelle gebaut, eingesetzt und verwendet werden. Compliance bedeutet, wie man beweist, dass man diese Regeln befolgt hat.

Man beginnt damit, Richtlinien für den Modelllebenszyklus zu definieren. Diese Policen sollten den Zugang, die Genehmigungen und den Zeitpunkt abdecken, wann Modelle ausgemustert werden müssen.

  • Zugangsrichtlinien: Wer Trainingsdaten, Modellgewichte und Inferenzprotokolle sehen kann.

  • Nutzungsrichtlinien: Wo ein Modell verwendet werden kann, für welche Benutzer und mit welchen Datentypen.

  • Rentenregelungen: Wann ein Modell außer Betrieb genommen werden muss und was passiert mit seinen Daten?

Dann definieren Sie Genehmigungsworkflows. Hochwirkungs- oder Hochrisikomodelle sollten vor der Produktion einen formelleren Überprüfungsprozess durchlaufen.

Sie ordnen Ihre KI-Kontrollen außerdem externen und internen Standards wie NIST AI RMF 1.0, ISO/IEC 42001 und geltenden Vorschriften wie dem EU AI Act zu. Unterstützende Kontrollen an SOC 2 und ISO 27001 anzupassen, wo relevant, um eine umfassende Sicherheitsgovernance zu demonstrieren.

  • KI-Governance: Dokumentieren Sie, wer das Modell unterschrieben hat, welche Tests durchgeführt wurden und wie Risiken bewertet wurden.

  • Modell-Risikobewertung: Klassifizieren Sie Modelle in Risikokategorien basierend auf den verwendeten Daten und den Auswirkungen des Ausfalls.

  • Compliance-Kartierung: Verknüpfen Sie Ihre Modellkontrollen mit Sicherheits- und Datenschutzrahmen, denen Ihr Unternehmen folgt. Zugriffskontrollen des Modells auf NIST AI RMF zuordnen's Steuerung der Funktion, Schulung des Datenschutzes nach ISO/IEC 42001's Daten-Governance-Anforderungen und Laufzeitüberwachung zu SOC 2 Typ II kontinuierlichen Überwachungskontrollen. Für regulierte Branchen sollten Sie sektorspezifische Anforderungen wie HIPAA für Gesundheits-KI oder PCI DSS für Zahlungsabwicklungsmodelle abstimmen.

Indem du das tust, wirst du dich Modellsicherheit Von einer Reihe von Ad-hoc-Entscheidungen zu einem wiederholbaren Prozess, den Rechts-, Risiko- und Sicherheitsteams alle verstehen können.

Vorfallreaktion für kompromittierte KI-Modelle

KI-Reaktion auf Vorfälle Das ist das, was man tut, wenn mit einem Modell etwas schiefgeht. Man behandelt es wie jeden anderen Vorfall, aber mit besonderem Fokus auf Modelle, Daten und Pipelines.

Du beginnst damit, KI-spezifische Playbooks zu schreiben. Diese Playbooks sollten Dinge wie Modelldiebstahl, Modellmissbrauch und gegnerische Angriffe abdecken.

  • Ein modellbereitstellender Endpunkt verhält sich merkwürdig oder liefert unerwartete Ausgaben.

  • Sie entdecken ein vergiftetes Modell oder Datensatz in Ihrer Umgebung.

  • Jemand hat Modellgewichte ohne Genehmigung kopiert oder heruntergeladen.

Jedes Playbook sollte klare Schritte zur Eindämmung beschreiben. Zum Beispiel könntest du:

  • Rate-Begrenzung oder Deaktivierung spezifischer Inferenz-Endpunkte.

  • Schalte den Datenverkehr auf ein vorheriges sicheres Modell um.

  • Schließen Sie verdächtige Identitäten oder Netzwerke vom Aufruf des Modells ab und rotieren oder widerrufen Sie sofort betroffene Zugangsdaten, Token und API-Schlüssel. Dies verhindert, dass Angreifer durch kompromittierte Authentifizierungsmaterialien Zugriff aufrechterhalten.

Du brauchst außerdem Modellforensik. So untersucht man, was passiert ist, mithilfe von Protokollen, Modellabstammung und Umweltdaten.

  • Forensik: Erfassung von Modellartefakten, Protokollen und relevanten Daten zur Analyse.

  • Angriffspfadanalyse: Verfolgen Sie, wie der Angreifer von Modell- oder Bibliotheksproblemen in breitere Cloud-Ressourcen übergegangen ist.

Ein Finanzdienstleistungsunternehmen, das mit einer kritischen Schwachstelle in einer KI-bezogenen Bibliothek konfrontiert war, nutzte diese Art von Transparenz, um genau herauszufinden, welche Workloads die schlechte Komponente nutzten, und diese schnell zu beheben. Dasselbe Muster gilt für jedes KI-bezogene Sicherheitsereignis.

Fortschrittliche Modellsicherheitstechniken

Fortschrittliche Sicherheitskontrollen im Modell sind zusätzliche Ebenen, die man hinzufügt, wenn die Einsätze hoch sind. Sie sind nicht das Erste, was man baut, aber sie werden für sensible Arbeitslasten wichtig.

Einige häufige Beispiele:

  • Modell-Wasserzeichen: Du fügst einem Modell ein unsichtbares Signal oder Verhalten hinzu, damit du später beweisen kannst, dass es dir gehört, oder Kopien erkennen kannst.

  • Unterschiedliche Privatsphäre: Sie trainieren Modelle so, dass sie einschränken, was ein Angreifer über einen einzelnen Datenpunkt lernen kann, selbst mit Zugriff auf Ausgaben.

  • Homomorphe Verschlüsselung: Man strukturiert Daten und Berechnungen so, dass bestimmte Schlüsse auf verschlüsselten Daten erfolgen können, was die Rohwertbelastung reduziert.

  • Gegnerisches Training: Du trainierst Modelle absichtlich an gegnerischen Beispielen, damit sie lernen, diesen Angriffsmustern zu widerstehen.

Diese Tools können helfen, Modelldiebstahl, Datenlecks von Trainingen und gegnerische Angriffe zu verhindern. Sie bringen Leistungs- und Komplexitätskompromisse mit sich, sodass man sie dort anwendet, wo das Risikoprofil die Kosten wirklich rechtfertigt.

Ein einheitliches KI-Sicherheitsprogramm mit Wiz aufbauen

Ein einheitliches KI-Sicherheitsprogramm besteht darin, dass KI-Sicherheit und Cloud-Sicherheit dieselbe Plattform, Daten und Arbeitsabläufe teilen. Du hörst auf, einen separaten zu betreiben "KI-Sicherheit" Island und sie in Ihr bestehendes Betriebsmodell integrieren. Dieser Ansatz passt zu den OWASP Top 10 für LLM-Anwendungen und hilft Ihnen, die kritischsten Sicherheitsrisiken für KI-Systeme strukturiert zu adressieren.

Du beginnst damit, alle deine Assets in eine Ansicht zu packen. Dazu gehören Modelle, Datenspeicher, Rechenleistungen, Identitäten, Pipelines und Endpunkte.

  • Visualisierung von Sicherheitsdiagrammen: Verwenden Sie einen Sicherheitsgraphen, um zu zeigen, wie ein bestimmtes Modell mit Trainingsdaten, Produktionsdaten, Identitäten und Netzwerken verbunden ist. Graphenkontext über Modelle, Datenspeicher, Identitäten und Endpunkte hinweg macht es einfach, Eigentumsverhältnisse schnell zurückzuverfolgen und Probleme an das richtige Team weiterzuleiten, sodass die Sicherheit nicht mehr funktioniert'nicht zu einem Engpass werden.

  • Kontextuelle Priorisierung: Rangprobleme basieren auf echten Angriffspfaden, nicht nur auf den rohen Schweregradwerten.

Dann verkabelt man die Automatisierung. Wenn Modellschwachstellen, Fehlkonfigurationen oder Datenexpositionen entdeckt werden, sollten diese automatisch an die richtigen Teams weitergeleitet werden.

  • Automatisierte Sanierung: Erstellen Sie Regeln, die Tickets öffnen, Warnungen senden oder Pipeline-Fehler auslösen, wenn bestimmte Bedingungen erfüllt sind. Mit KI-Sanierung 2.0Erhalten Sie KI-gestützte Vorschläge, die spezifische Lösungen empfehlen, die auf Ihre Umgebung zugeschnitten sind, die Auflösung beschleunigen und manuelle Arbeit reduzieren.

  • Shift-Left-Funktionen: Geben Sie Data Scientists und ML-Ingenieuren Zugang zum Scannen in ihren IDEs, Notizbüchern und CI-Pipelines, damit sie Probleme frühzeitig beheben können.

Eine einheitliche Plattform bringt diese Ideen an einem Ort zusammen. Wiz AI-SPM bewertet KI-Dienste auf riskante Konfigurationen und Expositionen. Der Wiz Security Graph zeigt dann, wie Schwachstellen, Fehlkonfigurationen und übermäßige Berechtigungen sich zu Angriffspfaden kombinieren, die Ihre KI-Modelle und Trainingsdaten bedrohen könnten.

Mit agentenloser Abdeckung erhält man Full-Stack-Sichtbarkeit, ohne schwere Agenten zum Modellieren von Servern hinzuzufügen. Hol dir eine Demo um agentenloses Scannen, Laufzeitschutz und einheitliche Sichtbarkeit für Ihre Cloud-KI-Workloads zu erkunden.

See Wiz AI-SPM in Action

Accelerate AI adoption securely with continuous visibility and proactive risk mitigation across your AI models, training data, and AI services.

Informationen darüber, wie Wiz mit Ihren personenbezogenen Daten umgeht, finden Sie in unserer Datenschutzerklärung.

FAQs zum Sicherheitsscanning von KI-Modellen