KI-Sicherheitstools: Das Open-Source-Toolkit

7 Minuten Lesezeit

Was sind die besten Tools, um KI zu sichern? Wenn Sie online nach der Antwort suchen, werden Sie eine beträchtliche Wissenslücke feststellen. Es gibt zwar viele Informationen über KI-gestützte SecOps-Tools, aber nicht viel über Sicherheitstools, die den SecOps-Betrieb für KI- und Machine Learning (ML)-Anwendungen unterstützen. Hier kommt dieser Artikel ins Spiel. 

In diesem Blogbeitrag tauchen wir tief in die MLSecOps-Toollandschaft ein, indem wir die fünf grundlegenden Bereiche von MLSecOps überprüfen, die wachsende Bedeutung von MLSecOps für Unternehmen untersuchen und sechs interessante Open-Source-Tools vorstellen, die Sie sich ansehen sollten – sowie die von Wiz angebotene KI-Lösung für das Management der Sicherheitslage.

Eine Einführung in MLSecOps

MLSecOps oder AISecOps ist eine neue Disziplin, die darauf abzielt, SecOps-Prozesse und Best Practices zu definieren, die speziell auf die Sicherung von ML- und KI-Pipelines in großem Maßstab zugeschnitten sind. Durch die Kombination von Schlüsselelementen von SecOps und MLOps erwies sich MLSecOps als notwendige Ergänzung zu herkömmlichen DevSecOps, um die besonderen Herausforderungen von KI-Anwendungen und MLOps zu bewältigen.

Was ist MLSecOps?

Die Sicherung von KI-Anwendungen ist das Ziel von MLSecOps, einem Bereich, der im Jahr 2023 erstmals ein breiteres Publikum erreichte.

MLSecOps ist noch sehr neu (daher der Mangel an Informationen online!), aber viele Ressourcen werden von der MLSecOps-Gemeinschaft. Einer dieser Beiträge ist die Definition von fünf grundlegenden Bereichen von MLSecOps, einschließlich der Ziele, auf die sich Sicherheitsteams konzentrieren können: 

  1. Verwundbarkeit in der Lieferkette: Bewerten Sie die Sicherheit der gesamten KI-Lieferkette.

  2. Provenienz des Modells: Verfolgen Sie den Ursprung, die Abstammung und die Entwicklung von KI-Modellen während ihres gesamten Lebenszyklus.

  3. Governance, Risiko und Compliance (GRC): Etablieren Sie Richtlinien, Verfahren und Kontrollen für die Einhaltung interner und externer regulatorischer Standards. 

  4. Vertrauenswürdige KI: Bieten Sie KI-Systeme an, die transparent, fair und sowohl gegenüber internen Stakeholdern als auch gegenüber externen Benutzern rechenschaftspflichtig sind. 

  5. Gegnerisches maschinelles Lernen: Sichern Sie KI-Systeme, indem Sie sie gegen gegnerische Angriffe testen, insbesondere solche, die darauf abzielen, das Verhalten des Modells zu beeinflussen.

(Denken Sie daran, dass dies die erste Iteration der MLSecOps-Ziele ist, und Sie können davon ausgehen, dass die Liste im Laufe der Zeit erweitert wird.)

Die Liste der MLSecOps-Community befasst sich mit zwei grundlegenden Aspekten von KI-Anwendungen: die Abhängigkeit von Open-Source- oder Drittanbietern, wenn es um Datensätze, Bibliotheken, Frameworks, Modelle, Infrastrukturen und Lösungen geht; und die nicht-deterministische Natur von KI-Modellen, die es schwierig macht, sie zu verstehen und zu schützen sowie unmöglich vollständig zu kontrollieren. Durch die Fokussierung auf diese fünf Bereiche KI-Sicherheit, Unternehmen können KI-Anwendungen veröffentlichen, die sowohl für das Unternehmen als auch für die Benutzer sicher sind. 

Wie nehmen Unternehmen MLSecOps an?

MLSecOps ist eine spezialisierte Disziplin, die Ad-hoc-Lösungen erfordert. 

Während einige große Unternehmen MLSecOps bereits eingeführt haben, stehen die meisten Unternehmen erst am Anfang ihrer Reise oder erwägen, dies zu beginnen. Angesichts des technischen Wissens und der Ressourcen, die für den Einstieg in MLSecOps erforderlich sind, ist es sinnvoll, dass die meisten Unternehmen bei Null anfangen. 

Wenn man jedoch bedenkt, dass MLSecOps mit der zunehmenden Einführung von KI für alle Unternehmen unverzichtbar werden wird – und wenn man bedenkt, dass neue Vorschriften, wie z. B. die EU-KI-Rechtsakt Und die Durchführungsverordnung 2023 zur KI-Sicherheit, die in Kraft treten, müssen Sicherheitsteams den Schutz von KI-Anwendungen zu einer Priorität machen.

Die Top 6 der Open-Source-KI-Sicherheitstools

Die Auswahl der richtigen Tools ist der beste Weg, um Ihre KI-Sicherheitslage zu stärken. Im Folgenden erfahren Sie mehr über einige der interessantesten verfügbaren Open-Source-KI-Sicherheitstools. Diese Tools wurden als breit anwendbar für eine Vielzahl von KI-Modellen und -Frameworks ausgewählt, aber es gibt auch andere spezialisierte Open-Source-Tools, wie z. B. Analyse des TensorFlow-Modells, und diese sind es wert, recherchiert zu werden, um die individuellen Anforderungen Ihres Unternehmens zu erfüllen. 

Wenn Sie die Einführung dieser Open-Source-Tools bewerten, denken Sie daran, dass sie möglicherweise nur eingeschränkten Wartungs- und Supportaufwand haben. Am sichersten ist es, sich auf externe Sicherheitsanbieter zu verlassen – Sie können mehr über Das KI-Sicherheitsstatus-Management von Wiz am Ende des Artikels.

  1. NB-Verteidigung

  2. Werkzeugkasten für gegnerische Robustheit

  3. Garak

  4. Datenschutz-Messgerät

  5. KI prüfen

  6. KI-Exploits

1. NB-Verteidigung 

NB-Verteidigung ist eine JupyterLab-Erweiterung und ein CLI-Tool für das KI-Schwachstellenmanagement, das von Protect AI angeboten wird. 

Figure 1: View of NB Defense's contextual guidance (Source: nbdefense.ai)

JupyterLab ist die am häufigsten verwendete KI-Modellentwicklungsumgebung für Data-Science-Teams auf der ganzen Welt. Durch die Bereitstellung von Schwachstellenmanagement direkt an der Quelle der Modellentwicklung ermöglicht NB Defense Teams, Sicherheit frühzeitig in den ML-Lebenszyklus einzubetten. Es ermöglicht auch Nicht-Sicherheitspersonal, auf einfache und benutzerfreundliche Weise direkt zuverlässige Sicherheitskontrollen einzuführen. 

  • Hauptfunktionalität: Frühzeitige Erkennung von Schwachstellen – von Geheimnissen und PII-Daten bis hin zu Common Vulnerabilities and Exposures (CVEs) und Lizenzen von Drittanbietern – durch kontextbezogene Anleitungen für Datenwissenschaftler innerhalb von JupyterLab und automatisiertes erweitertes Repository-Scannen für Sicherheitsbetreiber 

MLSecOps-Schwerpunkt: Vertrauenswürdige KI, via DevSecOps und Schwachstellenanalyse

2. Werkzeugkasten für gegnerische Robustheit 

Die Adversarial Robustness Toolbox (ART) ist eine Python-Bibliothek zur ML-Abwehr gegen gegnerische Bedrohungen, die von der Linux-KI gehostet wird & Datengrundlage.

Figure 2: A Computer Vision adversarial patch with ART (Source: github.com/Trusted-AI/adversarial-robustness-toolbox)

KI kann viele verschiedene Möglichkeiten für gegnerische Akteure bieten, von der Extraktion von Nutzerdaten über die Erstellung von Deep Fakes bis hin zur Verbreitung von Fehlinformationen. ART wurde sowohl für Entwickler als auch für Forscher entwickelt: Die Bibliothek unterstützt die Evaluierung einer Vielzahl von Modellen und Anwendungen, die für alle Datentypen entwickelt wurden, und die Abwehr der häufigsten gegnerischen Bedrohungen für KI. 

  • Hauptfunktionalität: Abwehr von Umgehungs-, Poisoning-, Inferenz- und Extraktionsangriffen durch einen breiten Katalog von vorgefertigten Angriffen, Schätzern, Abwehrmaßnahmen, Auswertungen und Metriken

  • MLSecOps-Schwerpunkt: Adversarial Machine Learning, über Rotes und blaues Teaming

Dummkopf und CleverHans sind zwei Bibliotheken, die ART ähneln und ebenfalls einen Besuch wert sind. 

3. Garak 

Garak ist ein Python-Paket für das Scannen von Schwachstellen in großen Sprachmodellen (LLMs), das von Leon Derczynski entwickelt wurde. 

Figure 3: A vulnerability scan of ChatGPT by Garak (Source: github.com/leondz/garak)

Die neue Welle der KI-Einführung hat mit der Kommerzialisierung von LLMs wie ChatGPT (Englisch). LLMs werden schnell von vielen Unternehmen übernommen, um das Geschäftspotenzial zu erschließen, oft über Integrationen von Drittanbietern. Garak bietet die Möglichkeit, alle gängigen LLMs, von OpenAI über HuggingFace bis hin zu LangChain, zu scannen, um sicherzustellen, dass sie sicher sind.

  • Hauptfunktionalität: Bietet vordefinierte Schwachstellenscanner für LLMs, um nach Halluzinationen, Fehlinformationen, schädlicher Sprache, Jailbreaks und Anfälligkeit für verschiedene Arten von zu suchen. Sofortige Injektionund mehr 

  • MLSecOps-Schwerpunkt: Adversarial Machine Learning, über Schwachstellenanalyse von LLMs für Red Teaming

4. Datenschutz-Messgerät 

Datenschutz-Messgerät ist eine Python-Bibliothek zur Prüfung des Datenschutzes von ML-Modellen, die vom NUS Data Privacy and Trustworthy Machine Learning Lab entwickelt wurde.

Figure 4: How to run an attack with Privacy Meter (Source: github.com/privacytrustlab/ml_privacy_meter/)

KI-Modelle werden mit großen Datenmengen trainiert. Lecks von Trainingsdaten ist eine der häufigsten und teuersten Bedrohungen für KI-Modelle. Privacy Meter bietet eine quantitative Analyse der grundlegenden Datenschutzrisiken von (fast) jedem statistischen und ML-Modell, gesammelt in gebrauchsfertigen Berichten mit umfangreichen Informationen sowohl über die individuellen als auch über die aggregierten Risiken von Datensätzen. Datenschutzbewertungen ermöglichen es Ihnen, Trainingsdatensätze mit hohem Risiko zu identifizieren, die durch Modellparameter oder Vorhersagen durchgesickert sind. 

  • Hauptfunktionalität: Führt hochmoderne Mitgliedschafts-Inferenzangriffe durch, die über Konfigurationskacheln anpassbar sind, um eine Vielzahl von vordefinierten Datenschutzspielen, Algorithmen und Signalen zu verwenden 

  • MLSecOps-Schwerpunkt: Vertrauenswürdige KI durch Risikobewertung – insbesondere im Rahmen der Datenschutz-Folgenabschätzung 

5. KI prüfen

KI prüfen ist eine Python-Bibliothek für ML-Bias-Tests, die von pymetrics angeboten wird.

Figure 5: Bias analysis against gender discrimination with Audit AI (Source: github.com/pymetrics/audit-ai/)

KI-Modelle lernen aus den Mustern, die in den Trainingsdaten bereitgestellt werden, und können darin vorhandene Vorurteile und Diskriminierungen aufrechterhalten. Audit AI bietet Möglichkeiten zur Messung von Verzerrungen für statistische und ML-Modelle über ein benutzerfreundliches Paket, das auf zwei Bibliotheken basiert, mit denen Datenwissenschaftler sehr vertraut sind: Pandas und sklearn. Data Scientists können die von Audit AI bereitgestellten Bias-Ergebnisse nutzen, um Änderungen in der Modellentwicklungspipeline voranzutreiben, die Verzerrungen abschwächen können. 

  • Hauptfunktionalität: Bietet Implementierungen von Bias-Tests und Algorithmus-Auditing-Techniken für Klassifizierungs- und Regressionsaufgaben, wie z. B. den Fisher-Z-Test und den Bayes-Faktor

  • MLSecOps-Schwerpunkt: Vertrauenswürdige KI durch manuelles Testen und Auditing

6. KI-Exploits 

KI-Exploits ist eine Sammlung von Exploits und Scan-Vorlagen für reale Schwachstellen, die von Protect AI gepflegt werden. 

Figure 6: Public vulnerabilities listed on Huntr (Source: huntr.com)

Sicherheitsteams können das KI-Know-how interner KMU erweitern, indem sie KI-Anwendungen gegen die in KI-Exploits gesammelten Exploits testen. Basierend auf der von Protect AI durchgeführten Forschung und Schwachstellen, die auf der Huntr Bug Bounty-Plattform entdeckt wurden, zielt diese Sammlung realer Exploits darauf ab, Ihnen zu helfen, Ihre aktuellen KI-Systeme zu schützen. AI-Exploits hilft Ihnen auch bei der Überprüfung von Drittanbietern.

  • Hauptfunktionalität: Sucht mit vorgefertigten Tools nach einer Vielzahl von Schwachstellen. Jedes Tool besteht aus Modulen, um die Schwachstelle auszunutzen, und Vorlagen, um die Schwachstelle automatisch zu scannen. Derzeit werden nur H2O, MLflow und Ray für die Remotecodeausführung, die lokale Dateieinbindung, beliebige Dateischreibvorgänge, websiteübergreifende Anforderungsfälschung und serverseitige Anforderungsfälschung unterstützt.

  • MLSecOps-Schwerpunkt: Schwachstellen in der Lieferkette und gegnerisches maschinelles Lernen durch Schwachstellen-Scanning und Red Teaming

Erhöhen Sie Ihre KI-Sicherheit mit Wiz

Bei Ihren Cloud-nativen KI-Anwendungen können Sie sich auf Wiz's KI-Verwaltung der Sicherheitslage (AI-SPM) um Ihre KI-Anwendungen zu sichern. 

Figure 7: The AI Security Dashboard offered as part of Wiz’s AI-SPM

KI-SPM Bietet Full-Stack-Transparenz in Ihre KI-Pipelines, indem KI-Services und -Technologien automatisch erkannt und dokumentiert werden, um eine KI-BOM zu erstellen, die Sie vor Schatten-KI. AI-SPM setzt auch sichere Konfigurationsbaselines mit integrierten Regeln durch, die Fehlkonfigurationen in KI-Diensten sowie in Ihrem IaC erkennen können, und ermöglicht es Ihnen, kritische Angriffspfade im Zusammenhang mit KI-Modellen und Trainingsdaten mit genauer Risikopriorisierung proaktiv zu erkennen und zu entfernen.

Mit Wiz können Sie sich auf eine hochmoderne verwaltete Infrastruktur und Services für Ihre KI-Sicherheit verlassen, die Ihnen helfen können, eine starke Sicherheitsschicht für Ihre KI-Pipelines einzurichten – und zwar sofort. Weitere Informationen finden Sie unter Wiz für KI-Webseite. Wenn Sie eine Live-Demo, würden wir uns freuen, mit Ihnen in Kontakt zu treten.

Develop AI Applications Securely

Learn why CISOs at the fastest growing companies choose Wiz to secure their organization's AI infrastructure.

Demo anfordern