Was ist dunkle KI?

Dunkle KI beinhaltet den böswilligen Einsatz von Technologien der künstlichen Intelligenz (KI), um Cyberangriffe und Datenschutzverletzungen zu erleichtern. Dunkle KI umfasst sowohl die versehentliche als auch die strategische Bewaffnung von KI-Werkzeugen. 

Zu den positiven Vorteilen von KI gehören eine verbesserte Automatisierung, eine verbesserte datengesteuerte Entscheidungsfindung, optimierte Arbeitsabläufe und optimierte Technologie- und IT-Kosten. Um dunkle KI zu verstehen, stellen Sie sich diese Fähigkeiten und Vorteile in den Händen von Angreifern vor.

Während Bedrohungsakteure KI für unzählige Zwecke einsetzen, besteht das Hauptziel in der Regel darin, die IT-Ökosysteme von Unternehmen zu kompromittieren und auf sensible Daten zuzugreifen. Dark AI bietet Cyberkriminellen neue und einzigartige Möglichkeiten, die IT-Infrastruktur eines Unternehmens auszunutzen. Mithilfe von KI können Cyberkriminelle auch den Einsatz bekannterer Cyberbedrohungen wie Malware, Ransomware und Social-Engineering-Angriffe wie Phishing beschleunigen.

Laut Gartnergaben 8 von 10 leitenden Führungskräften für Unternehmensrisiken an, dass KI-gestützte Cyberangriffe das größte aufkommende Risiko im Jahr 2024 sind.

Sechsundsechzig Prozent gaben an, dass KI-gesteuerte Fehlinformationen die größte Bedrohung für 2024 seien. Da KI weiter wächst, sich weiterentwickelt und verschiedene Branchen revolutioniert, müssen sich Unternehmen der drohenden Bedrohung durch dunkle KI bewusst sein.

Get an AI-SPM Sample Assessment

In this Sample Assessment Report, you’ll get a peek behind the curtain to see what an AI Security Assessment should look like.

Warum ist dunkle KI so gefährlich? 

Bevor wir uns mit der Frage befassen, wie und warum dunkle KI Unternehmen wie kein anderes Sicherheitsrisiko bedroht, wollen wir uns eingehender mit den Geschäftsanwendungen von KI befassen.

KI spielt eine wichtige Rolle in der heutigen Cybersicherheit. Viele der führenden Unternehmen von heute integrieren KI-Tools in ihren Cybersicherheits-Stack. Laut IBMkonnten Unternehmen mit KI-gestützten Cybersicherheitsfunktionen im Jahr 2023 Datenschutzverletzungen 108 Tage schneller beheben als Unternehmen ohne. Diese Unternehmen sparten außerdem 1,8 Millionen US-Dollar an Kosten für Datenschutzverletzungen.

Source: Survey results from the Wiz AI Security Readiness Report

Neben der Cybersicherheit nutzen Unternehmen auch KI (insbesondere GenAI) für verschiedene geschäftskritische Cloud-Operationen. Unser Forschung zeigt, dass 70 % der Unternehmen Cloud-basierte verwaltete KI-Dienste wie Azure AI Services, Azure OpenAI, Amazon SageMaker, dem Azure ML Studio, Die Vertex-KI von Google Cloudund GCP AI Platform. Zweiundvierzig Prozent der Befragten gaben an, dass sie KI bis zu einem gewissen Grad selbst mit Modellen wie BERT, DistilBERT, RoBERTa, T5, Llama und MPNet gehostet haben. Alle diese KI-Modelle, Workflows und Pipelines sind anfällig für Angriffe durch dunkle KI. 

Hier ist ein genauerer Blick darauf, warum dunkle KI die oberste Priorität der Cybersicherheit in jedem Unternehmen sein sollte: 

  • Verbesserte Angriffshäufigkeit: Dark-AI-Tools können bösartigen Code und andere Arten von Angriffen in bisher nicht gekannter Geschwindigkeit bereitstellen und so die Abwehr eines Unternehmens ständig herausfordern. 

  • Höheres Attack-Volumen: Dark-AI-Tools ermöglichen es Bedrohungsakteuren, bösartigen Code in großen Mengen und ohne manuelle Eingriffe zu versenden. In der Vergangenheit wäre dies für die meisten Bedrohungsakteure zu zeit- und ressourcenintensiv gewesen. 

  • Realistischeres Social Engineering: Dunkle KI kann Angreifern dabei helfen, die Bereitstellung hochrealistischer und glaubwürdiger E-Mails und Mitteilungen zu automatisieren, die Mitarbeiter dazu verleiten, sensible Daten preiszugeben und Zugriff auf Unternehmensnetzwerke zu gewähren.

  • Höhere Wahrscheinlichkeit von prompten Injektionen: Mit Dark AI können Angreifer die Trainingsdaten verschiedener geschäftskritischer GenAI-Anwendungen manipulieren und korrumpieren. Erfolgreich Prompte Injektionsangriffe Geben Sie Macht und Kontrolle über die IT-Ökosysteme von Unternehmen an Gegner ab. 

  • Verbesserte Möglichkeit, Cybersicherheitstools zu umgehen: Da Dark-AI-Tools Daten kontinuierlich analysieren, sich selbst optimieren und Angriffe automatisieren können, können Angreifer ständig Druck auf die Cybersicherheit eines Unternehmens ausüben. Wenn Unternehmen ihre Kapazitäten nicht kontinuierlich verbessern, werden Datenschutzverletzungen zu einer noch unmittelbareren Bedrohung. 

  • Zunehmender Einsatz von Multimedia-Betrug: Bedrohungsakteure können dunkle KI nutzen, um bösartige und realistische Multimedia-Artefakte zu produzieren. Cyberangreifer nutzen diese Medienartefakte, um Reputationsschäden zu verursachen, Fake News mit Deepfakes zu verbreiten und die Cybersicherheits- und Authentifizierungssysteme von Unternehmen durch Klonen von Stimmen und biometrische Manipulation auszutricksen. Beispiel aus der Praxis: Im April 2024 versuchte ein Hacker, einen LastPass (Englisch) Mitarbeiter, indem er sich bei einem WhatsApp-Anruf als CEO des Unternehmens ausgibt. Dies geschah durch die Verwendung eines KI-generierten Audio-Deepfakes, und dieser Angriff ist nur eines von vielen Beispielen, bei denen Angreifer realistische Audiodaten (und/oder Fotos) erzeugen, um Sicherheitsmechanismen zu umgehen und Mitarbeiter auszutricksen. 

  • Größere Anzahl von Cyberkriminellen: Dunkle KI unterstützt Cyberkriminelle aller Hintergründe, auch solche ohne technischen Scharfsinn. Vor dem Aufkommen von KI mussten sich Unternehmen nur mit Bedrohungsakteuren auseinandersetzen, die über immenses technisches Wissen und Ressourcen verfügten. Heute, mit dunkler KI, kann jeder, der einen Laptop und böswillige Absichten hat, großen Schaden anrichten.

100 Experts Weigh In on AI Security

Learn what leading teams are doing today to reduce AI threats tomorrow.

Reale Tools für Dark-AI-Angriffe

In diesem Abschnitt werden fünf reale Tools vorgestellt, die Bedrohungsakteure für Dark-AI-Angriffe nutzen können. 

Denken Sie daran, dass nicht alle dunklen KI-Tools von Natur aus bösartig sind. In vielen Fällen können Bedrohungsakteure legitime Tools zurückentwickeln oder Tools für dunkle KI-Zwecke umfunktionieren.

ToolDescription
FraudGPTFraudGPT is a malicious mirror of ChatGPT that’s available through dark web marketplaces and social media platforms like Telegram. FraudGPT can help adversaries write malicious code, compose phishing messages, design hacking tools, create undetectable malware, and identify the most viewed or used websites and services.
AutoGPTAutoGPT is an open-source tool that hackers use for malicious purposes. While not inherently destructive, AutoGPT allows threat actors to establish malicious end goals and train models to self-learn to achieve those goals. With tools like AutoGPT, threat actors can attempt thousands of potentially destructive prompts that involve breaching an enterprise’s defenses, accessing sensitive data, or poisoning GenAI tools and training data.
WormGPTAnother nefarious cousin of ChatGPT, WormGPT has none of the guardrails and security measures that its GPT-3-based architecture originally featured. Hackers trained WormGPT with a vast amount of cyberattack- and hacker-related training data, making it a powerful weapon against unsuspecting enterprises.
PoisonGPTPoisonGPT is a unique dark AI tool because threat actors didn’t create it. Instead, PoisonGPT was an educational initiative conducted by researchers to reveal the vulnerabilities of large language models (LLMs) and the potential repercussions of poisoned LLMs and a compromised AI supply chain. By poisoning the training data of LLMs leveraged by enterprises, governments, and other institutions with PoisonGPT-esque tools and techniques, threat actors can cause unimaginable damage.
FreedomGPTFreedomGPT is an open-source tool that anyone can download and use offline. Because it doesn’t feature any of the guardrails or filters that its more mainstream cousins have, FreedomGPT is unique. Without these filters, threat actors can weaponize FreedomGPT with malicious training data. This makes it easy for threat actors to spread or inject misinformation, biases, dangerous prompts, or explicit content into an enterprise’s IT environment.

Best Practices zur Abwehr von Bedrohungen durch Dark AI

Auch wenn dunkle KI-Bedrohungen eine große Rolle spielen, gibt es Schritte, die Sie unternehmen können, um Cyber-Bedrohungen einzudämmen und Ihre KI-Ökosysteme zu sichern. 

Nutzung von MLSecOps-Tools

MLSecOps, auch bekannt als AISecOps, ist ein Bereich der Cybersicherheit, der die Sicherung von KI- und ML-Pipelines umfasst. Während eine einheitliche Cloud-Sicherheitsplattform die ideale Lösung ist, um dunkle KI und andere Cyberbedrohungen zu bekämpfen, sollten Unternehmen auch prüfen, wie sie ihren Sicherheitsstack erweitern können MLSecOps-Werkzeuge wie NB Defense, Adversarial Robustness Toolbox, Garak, Privacy Meter und Audit AI.

Figure 1: Bias analysis with Audit AI (Source: GitHub)

Stellen Sie sicher, dass Ihre DSPM-Lösung KI-Sicherheit enthält

Für Unternehmen, die Verwaltung der Datensicherheitslage (DSPM)ist es wichtig, sicherzustellen, dass die Lösung KI-Trainingsdaten umfasst. Durch die Sicherung von KI-Trainingsdaten vor dunklen KI-Tools bleiben KI-Ökosysteme wie ChatGPT sicher, unverfälscht und effizient. Unternehmen, die nicht über eine DSPM-Lösung verfügen, müssen sich für eine Lösung entscheiden, die ihre Cloud-basierten KI-Trainingsdaten.

Figure 2: Identifying AI data leakage with Wiz’s DSPM capabilities

Unterstützen Sie Entwickler mit Self-Service-KI-Sicherheitstools

Um KI-gestützte DevOps-Pipelines zu sichern, zu überwachen und zu verwalten, stellen Sie Entwicklern leistungsstarke Sicherheitstools und -funktionen zur Verfügung. Mit einem KI-Sicherheits-Dashboard oder einem Angriffspfad-Analysator zur Anzeige, Wartung und Optimierung von KI-Pipelines müssen sich Unternehmen nicht auf ein zentralisiertes Sicherheitsmodell verlassen. 

Optimieren Sie Mandantenarchitekturen für GenAI-Dienste

Für ihre GenAI-integrierenden Dienste sollten Unternehmen Mieterarchitekturmodelle sorgfältig auswählen und komplex konfigurieren. Eine gemeinsam genutzte Architektur mit mehreren Mandanten eignet sich z. B. ideal für grundlegende Modelle oder fein abgestimmte Basismodelle. Eine dedizierte Mandantenarchitektur eignet sich am besten für vom Benutzer abgestimmte Modelle. Bei KI-Komponenten wie Indizes, Eingabeaufforderungs- und Antwortverläufen und API-Endpunkten sollten Unternehmen die Feinheiten ihres Anwendungsfalls bewerten, bevor sie sich für die Mandantenarchitektur entscheiden. 

(Source: Wiz's State of AI in the Cloud Report)

Werfen Sie ein Licht auf die Schatten-KI 

Schatten-KI bezieht sich auf jedes KI-Tool in der IT-Umgebung eines Unternehmens, von dem das IT- oder Sicherheitsteam nichts weiß. Versteckte KI-Tools können ein Angriffsvektor für Bedrohungsakteure sein. Aus der Sicht eines Angreifers ist es einfacher, dunkle KI-Tools zu verwenden, um versteckte KI-Infrastrukturen auszunutzen, da sie keine Sicherheitskontrollen umgehen müssen. Aus diesem Grund ist es wichtig, sich auf die Identifizierung und Bekämpfung von Schatten-KI zu konzentrieren. 

State of AI in the Cloud [2025]

Did you know that over 70% of organizations are using managed AI services in their cloud environments? That rivals the popularity of managed Kubernetes services, which we see in over 80% of organizations! See what else our research team uncovered about AI in their analysis of 150,000 cloud accounts.

Testen von KI-Anwendungen in Sandbox-Umgebungen

Um sicherzustellen, dass Bedrohungsakteure KI-basierte Anwendungen nicht mit bösartigem Code infizieren, sollten Sie diese Anwendungen sorgfältig in Sandbox-Umgebungen testen. Mit Tests können Unternehmen ein genaueres Verständnis dafür erhalten, welche Sicherheitslücken, Schwachstellen und Lücken Bedrohungsakteure ausnutzen könnten.

Bekämpfen Sie dunkle KI mit einer einheitlichen Cloud-Sicherheitslösung

Es gibt unzählige Sicherheitstools, aus denen Sie sich vor dunkler KI schützen können. Die umfassendste und effizienteste Möglichkeit, KI-Pipelines vor dunklen KI-Bedrohungen zu schützen, besteht jedoch darin, eine einheitliche Cloud-Sicherheitslösung in Auftrag zu geben: Eine einheitliche Plattform ermöglicht es Ihnen, die KI-Sicherheit und KI-Risikomanagement aus einer umfassenderen Cybersicherheitsperspektive und vereinheitlichen Sie Ihre Cybersicherheitsstärken. 

Wie Wiz Sie vor dunkler KI schützen kann

Wiz KI-SPM (AI Security Posture Management) ist eine umfassende Sicherheitslösung, die Unternehmen bei der Verwaltung und Sicherung ihrer KI-Umgebungen unterstützt. Es bietet vollständige Transparenz in KI-Pipelines, identifiziert Fehlkonfigurationen und schützt vor verschiedenen KI-bezogenen Risiken.

Wiz AI-SPM kann dazu beitragen, die Bedrohung durch dunkle KI auf mehrere wichtige Arten zu mindern:

  1. Full-Stack-Transparenz: KI-SPM bietet umfassende Einblicke in KI-Pipelines durch seine KI-BOM (Stückliste) Fähigkeiten. Dies ermöglicht Sicherheitsteams:

    • Identifizieren Sie alle KI-Dienste, Technologien, Bibliotheken und SDKs in der Umgebung, ohne Agenten zu verwenden.

    • Erkennen Sie neue KI-Dienste, die sofort in die Umgebung eingeführt werden.

    • Kennzeichnen Sie verschiedene Technologien als genehmigt, unerwünscht oder nicht überprüft.

    Diese Sichtbarkeit ist entscheidend für die Aufdeckung von Schatten-KI und potenziell bösartigen KI-Systemen, die möglicherweise ohne Genehmigung arbeiten.

  2. Erkennung von Fehlkonfigurationen: Wiz AI-SPM hilft bei der Durchsetzung von KI-Sicherheitsbaselines, indem Fehlkonfigurationen in KI-Diensten identifiziert werden. Es bietet integrierte Konfigurationsregeln zum Bewerten von KI-Diensten auf Sicherheitsprobleme, wie z. B.:

    • SageMaker-Notebooks mit übermäßigen Berechtigungen

    • Vertex AI Workbench-Notebooks mit öffentlichen IP-Adressen

    Durch die Erkennung dieser Fehlkonfigurationen können Unternehmen Schwachstellen reduzieren, die von dunkler KI ausgenutzt werden könnten.

  3. Analyse des Angriffspfads: Wiz weitet seine Analyse von Angriffspfaden auf KI aus und bewertet Risiken in Bezug auf Schwachstellen, Identitäten, Internetrisiken, Daten, Fehlkonfigurationen und Geheimnisse. Dies ermöglicht Organisationen:

    • Proaktives Entfernen kritischer KI-Angriffspfade

    • Verstehen Sie den vollständigen Kontext der Risiken in der Cloud und bei Workloads

    • Priorisieren und Beheben der kritischsten KI-Sicherheitsprobleme

  4. Datensicherheit: Wiz AI-SPM erweitert die DSPM-Funktionen (Data Security Posture Management) auf KI. Das hilft:

    • Erkennen Sie automatisch sensible Trainingsdaten.

    • Gewährleisten Sie die Sicherheit von KI-Trainingsdaten mit sofort einsatzbereiten DSPM-KI-Steuerungen

    • Identifizieren und entfernen Sie Angriffspfade, die zu Datenlecks oder Vergiftung

  5. KI-Sicherheits-Dashboard: Wiz bietet ein KI-Sicherheits-Dashboard, das eine priorisierte Warteschlange von KI-Sicherheitsproblemen bietet. Dies hilft KI-Entwicklern und Datenwissenschaftlern, ihre KI-Sicherheitslage schnell zu verstehen und sich auf die kritischsten Risiken zu konzentrieren.

Example of Wiz's AI security dashboard

Durch die Implementierung dieser Funktionen hilft Wiz AI-SPM Unternehmen, eine starke Sicherheitslage für ihre KI-Systeme aufrechtzuerhalten, wodurch es für dunkle KI viel schwieriger wird, unentdeckt in der Umgebung zu operieren. Die umfassende Transparenz, die kontinuierliche Überwachung und die proaktiven Funktionen zur Risikominderung arbeiten zusammen, um die Angriffsfläche zu reduzieren und das Potenzial für nicht autorisierte oder böswillige KI-Aktivitäten zu minimieren.

Orange entwickelt viele generative KI-Dienste mit OpenAI. Die Unterstützung von Wiz für Azure OpenAI Service bietet uns einen deutlich verbesserten Einblick in unsere KI-Pipelines und ermöglicht es uns, die Risiken, mit denen unsere KI-Entwicklungsteams konfrontiert sind, proaktiv zu identifizieren und zu mindern.

Accelerate AI Innovation, Securely

Learn why CISOs at the fastest growing companies choose Wiz to secure their organization's AI infrastructure.

Informationen darüber, wie Wiz mit Ihren personenbezogenen Daten umgeht, finden Sie in unserer Datenschutzerklärung.