Qu’est-ce que l’IA noire ?

L’IA noire implique l’utilisation malveillante de technologies d’intelligence artificielle (IA) pour faciliter les cyberattaques et les violations de données. L’IA sombre comprend l’armement accidentel et stratégique des outils d’IA. 

Les avantages positifs de l’IA comprennent une automatisation accrue, une prise de décision basée sur les données, des flux de travail rationalisés et des coûts technologiques et informatiques optimisés. Pour comprendre l’IA noire, imaginez ces capacités et avantages entre les mains d’adversaires.

Bien que les acteurs de la menace utilisent l’IA à de multiples fins, l’objectif principal consiste généralement à compromettre les écosystèmes informatiques des entreprises et à accéder à des données sensibles. L’IA noire offre aux cybercriminels de nouvelles façons uniques d’exploiter l’infrastructure informatique d’une entreprise. Grâce à l’IA, les cybercriminels peuvent également accélérer le déploiement de cybermenaces plus connues comme les logiciels malveillants, les ransomwares et les attaques d’ingénierie sociale comme le phishing.

D’après Gartner, 8 cadres supérieurs de la gestion des risques d’entreprise sur 10 ont affirmé que les cyberattaques alimentées par l’IA étaient le principal risque émergent en 2024.

Soixante-six pour cent ont affirmé que la désinformation basée sur l’IA était la menace la plus puissante de 2024. Alors que l’IA continue de croître, de se développer et de perturber divers secteurs, les entreprises doivent être conscientes de la menace imminente de l’IA sombre.

Get an AI-SPM Sample Assessment

In this Sample Assessment Report, you’ll get a peek behind the curtain to see what an AI Security Assessment should look like.

Pourquoi l’IA noire est-elle si dangereuse ? 

Avant de nous pencher sur comment et pourquoi l’IA noire menace les entreprises comme tout autre risque de sécurité, approfondissons les applications commerciales de l’IA.

L’IA joue un rôle majeur dans la cybersécurité contemporaine. De nombreuses entreprises de premier plan incluent des outils d’IA dans leur pile de cybersécurité. D’après IBM, en 2023, les entreprises dotées de capacités de cybersécurité alimentées par l’IA ont résolu les violations de données 108 jours plus rapidement que les entreprises qui n’en ont pas. Ces entreprises ont également économisé 1,8 million de dollars en coûts liés aux violations de données.

Source: Survey results from the Wiz AI Security Readiness Report

Outre la cybersécurité, les entreprises utilisent également l’IA (en particulier GenAI) pour diverses opérations cloud critiques. Notre recherche révèle que 70 % des entreprises utilisent des services d’IA managés basés sur le cloud, tels que les services Azure AI, Azure OpenAI, Amazon SageMaker, le studio Azure ML, Vertex AI de Google Cloudet la plateforme d’IA GCP. Quarante-deux pour cent des personnes interrogées ont déclaré avoir auto-hébergé l’IA dans une certaine mesure avec des modèles tels que BERT, DistilBERT, RoBERTa, T5, Llama et MPNet. Tous ces modèles, flux de travail et pipelines d’IA sont vulnérables aux attaques d’IA sombre. 

Voici pourquoi l’IA sombre devrait être la priorité absolue de chaque entreprise en matière de cybersécurité : 

  • Fréquence d’attaque améliorée : Les outils d’IA noire peuvent déployer du code malveillant et d’autres types d’attaques à des vitesses jamais vues auparavant, mettant constamment à l’épreuve les défenses d’une entreprise. 

  • Volume d’attaque plus élevé : Les outils d’IA sombre permettent aux acteurs de la menace de diffuser du code malveillant en masse et sans intervention manuelle. Par le passé, cela aurait pris trop de temps et de ressources pour la plupart des acteurs malveillants. 

  • Ingénierie sociale plus réaliste : L’IA noire peut aider les adversaires à automatiser le déploiement d’e-mails et de communications très réalistes et crédibles qui incitent les employés à divulguer des données sensibles et à accorder l’accès aux réseaux d’entreprise.

  • Probabilité plus élevée d’injections rapides : Avec l’IA sombre, les adversaires peuvent manipuler et corrompre les données d’entraînement de diverses applications GenAI critiques. Réussi Attaques par injection rapide confiez le pouvoir et le contrôle des écosystèmes informatiques d’entreprise à des adversaires. 

  • Amélioration de la capacité à contourner les outils de cybersécurité : Étant donné que les outils d’IA sombre peuvent analyser en permanence les données, s’auto-optimiser et automatiser les attaques, les adversaires peuvent constamment exercer une pression sur la posture de cybersécurité d’une entreprise. Si les entreprises n’améliorent pas continuellement leurs fortifications, les violations de données deviennent encore plus une menace imminente. 

  • Utilisation accrue de la fraude multimédia : Les acteurs de la menace peuvent utiliser l’IA sombre pour produire des artefacts multimédias malveillants et réalistes. Les cyberattaquants utilisent ces artefacts médiatiques pour nuire à leur réputation, diffuser de fausses nouvelles à l’aide de deepfakes et tromper les systèmes de cybersécurité et d’authentification des entreprises via le clonage vocal et la manipulation biométrique. Exemple concret : En avril 2024, un pirate informatique a tenté de tromper un LastPass en se faisant passer pour le PDG de l’entreprise lors d’un appel WhatsApp. Cela a été fait à l’aide d’un deepfake audio généré par l’IA, et cette attaque n’est qu’un des nombreux exemples où les adversaires génèrent de l’audio (et/ou des photos) réalistes pour contourner les mécanismes de sécurité et tromper les employés. 

  • Plus grand nombre de cybercriminels : L’IA noire permet aux cybercriminels de tous horizons, même ceux qui n’ont pas de connaissances techniques. Avant l’essor de l’IA, les entreprises n’avaient à faire face qu’à des acteurs malveillants dotés d’immenses connaissances techniques et de ressources. Aujourd’hui, avec l’IA sombre, toute personne disposant d’un ordinateur portable et d’une intention malveillante peut causer des dommages à grande échelle.

100 Experts Weigh In on AI Security

Learn what leading teams are doing today to reduce AI threats tomorrow.

Des outils concrets pour les attaques d’IA sombre

Cette section met en évidence cinq outils du monde réel que les acteurs de la menace peuvent exploiter pour des attaques d’IA sombre. 

N’oubliez pas que tous les outils d’IA sombres ne sont pas intrinsèquement malveillants. Dans de nombreux cas, les acteurs de la menace peuvent faire de l’ingénierie inverse sur des outils légitimes ou réutiliser des outils à des fins d’IA sombre.

ToolDescription
FraudGPTFraudGPT is a malicious mirror of ChatGPT that’s available through dark web marketplaces and social media platforms like Telegram. FraudGPT can help adversaries write malicious code, compose phishing messages, design hacking tools, create undetectable malware, and identify the most viewed or used websites and services.
AutoGPTAutoGPT is an open-source tool that hackers use for malicious purposes. While not inherently destructive, AutoGPT allows threat actors to establish malicious end goals and train models to self-learn to achieve those goals. With tools like AutoGPT, threat actors can attempt thousands of potentially destructive prompts that involve breaching an enterprise’s defenses, accessing sensitive data, or poisoning GenAI tools and training data.
WormGPTAnother nefarious cousin of ChatGPT, WormGPT has none of the guardrails and security measures that its GPT-3-based architecture originally featured. Hackers trained WormGPT with a vast amount of cyberattack- and hacker-related training data, making it a powerful weapon against unsuspecting enterprises.
PoisonGPTPoisonGPT is a unique dark AI tool because threat actors didn’t create it. Instead, PoisonGPT was an educational initiative conducted by researchers to reveal the vulnerabilities of large language models (LLMs) and the potential repercussions of poisoned LLMs and a compromised AI supply chain. By poisoning the training data of LLMs leveraged by enterprises, governments, and other institutions with PoisonGPT-esque tools and techniques, threat actors can cause unimaginable damage.
FreedomGPTFreedomGPT is an open-source tool that anyone can download and use offline. Because it doesn’t feature any of the guardrails or filters that its more mainstream cousins have, FreedomGPT is unique. Without these filters, threat actors can weaponize FreedomGPT with malicious training data. This makes it easy for threat actors to spread or inject misinformation, biases, dangerous prompts, or explicit content into an enterprise’s IT environment.

Bonnes pratiques pour atténuer les menaces de l’IA sombre

Même si les menaces d’IA sombre sont omniprésentes, il existe des mesures que vous pouvez prendre pour atténuer les cybermenaces et sécuriser vos écosystèmes d’IA. 

Tirez parti des outils MLSecOps

MLSecOps, également connu sous le nom d’AISecOps, est un domaine de la cybersécurité qui implique la sécurisation des pipelines d’IA et de ML. Bien qu’une plateforme de sécurité cloud unifiée soit la solution idéale pour lutter contre l’IA noire et d’autres cybermenaces, les entreprises devraient également envisager d’augmenter leur pile de sécurité avec Outils MLSecOps comme NB Defense, Adversarial Robustness Toolbox, Garak, Privacy Meter et Audit AI.

Figure 1: Bias analysis with Audit AI (Source: GitHub)

Assurez-vous que votre solution DSPM inclut la sécurité de l’IA

Pour les entreprises qui tirent parti gestion de la posture de sécurité des données (DSPM), il est essentiel de s’assurer que la solution englobe les données d’entraînement de l’IA. La sécurisation des données d’entraînement de l’IA à partir d’outils d’IA sombres permet de conserver des écosystèmes d’IA tels que ChatGPT sécurisé, non corrompu et efficace. Les entreprises qui ne disposent pas d’une solution DSPM doivent choisir une solution capable de protéger leur Données d’entraînement de l’IA.

Figure 2: Identifying AI data leakage with Wiz’s DSPM capabilities

Donnez aux développeurs les moyens d’utiliser des outils de sécurité d’IA en libre-service

Pour sécuriser, surveiller et gérer les pipelines DevOps alimentés par l’IA, fournissez aux développeurs des outils et des fonctionnalités de sécurité puissants. Avec un tableau de bord de sécurité de l’IA ou un analyseur de chemin d’attaque pour visualiser, gérer et optimiser les pipelines d’IA, les entreprises n’ont pas besoin de s’appuyer sur un modèle de sécurité centralisé. 

Optimiser les architectures de locataires pour les services GenAI

Pour leurs services intégrant GenAI, les entreprises doivent choisir avec soin et configurer de manière complexe les modèles d’architecture de locataire. Par exemple, une architecture partagée à plusieurs locataires est idéale pour les modèles fondamentaux ou les modèles de base affinés. Une architecture de locataire dédiée fonctionne mieux pour les modèles optimisés par l’utilisateur. Pour les composants d’IA tels que les index, les historiques d’invites et de réponses et les points de terminaison d’API, les entreprises doivent évaluer les subtilités de leur cas d’utilisation avant de décider de l’architecture des locataires. 

(Source: Wiz's State of AI in the Cloud Report)

Mettez en lumière l’IA de l’ombre 

IA de l’ombre fait référence à tout outil d’IA au sein de l’environnement informatique d’une entreprise dont l’équipe informatique ou de sécurité n’a pas connaissance. Les outils d’IA cachés peuvent être un vecteur d’attaque pour les acteurs de la menace. Du point de vue d’un adversaire, il est plus facile d’utiliser des outils d’IA sombres pour exploiter l’infrastructure d’IA cachée, car ils n’ont pas à contourner les contrôles de sécurité. C’est pourquoi il est essentiel de se concentrer sur l’identification et le traitement de l’IA fantôme. 

State of AI in the Cloud [2025]

Did you know that over 70% of organizations are using managed AI services in their cloud environments? That rivals the popularity of managed Kubernetes services, which we see in over 80% of organizations! See what else our research team uncovered about AI in their analysis of 150,000 cloud accounts.

Tester des applications d’IA dans des environnements sandbox

Pour vous assurer que les acteurs malveillants n’infectent pas les applications basées sur l’IA avec du code malveillant, testez méticuleusement ces applications dans des environnements de bac à sable. Grâce aux tests, les entreprises peuvent obtenir une compréhension plus précise des vulnérabilités, des faiblesses et des failles de sécurité que les acteurs malveillants peuvent exploiter.

Luttez contre l’IA sombre avec une solution de sécurité cloud unifiée

Il existe d’innombrables outils de sécurité pour se protéger contre l’IA noire. Cependant, le moyen le plus complet et le plus efficace pour les entreprises de protéger les pipelines d’IA contre les menaces d’IA sombre est de mettre en service une solution de sécurité cloud unifiée : Une plateforme unifiée vous permet de visualiser la sécurité de l’IA et Gestion des risques liés à l’IA dans une perspective plus large de cybersécurité et unifiez vos fortifications en matière de cybersécurité. 

Comment Wiz peut vous protéger de l’IA sombre

Wiz AI-SPM (AI Security Posture Management) est une solution de sécurité complète conçue pour aider les organisations à gérer et à sécuriser leurs environnements d’IA. Il offre une visibilité totale sur les pipelines d’IA, identifie les erreurs de configuration et protège contre divers risques liés à l’IA.

Wiz AI-SPM peut aider à atténuer la menace de l’IA sombre de plusieurs manières clés :

  1. Visibilité sur l’ensemble de la pile: AI-SPM offre une visibilité complète sur les pipelines d’IA grâce à ses AI-BOM (Bill of Materials) Capacités. Cela permet aux équipes de sécurité de :

    • Identifiez tous les services d’IA, les technologies, les bibliothèques et les SDK de l’environnement sans utiliser d’agents.

    • Détectez immédiatement les nouveaux services d’IA introduits dans l’environnement.

    • Signalez différentes technologies comme approuvées, indésirables ou non examinées.

    Cette visibilité est cruciale pour découvrir l’IA fantôme et les systèmes d’IA potentiellement malveillants qui peuvent fonctionner sans autorisation.

  2. Détection des erreurs de configuration: Wiz AI-SPM aide à faire respecter les bases de sécurité de l’IA en identifiant les erreurs de configuration dans les services d’IA. Il fournit des règles de configuration intégrées pour évaluer les services d’IA à la recherche de problèmes de sécurité, tels que :

    • Blocs-notes SageMaker avec des autorisations excessives

    • Notebooks Vertex AI Workbench avec adresses IP publiques

    En détectant ces erreurs de configuration, les organisations peuvent réduire les vulnérabilités qui pourraient être exploitées par l’IA sombre.

  3. Analyse du chemin d’attaque: Wiz étend son analyse des chemins d’attaque à l’IA, en évaluant les risques liés aux vulnérabilités, aux identités, aux expositions à Internet, aux données, aux erreurs de configuration et aux secrets. Cela permet aux organisations de :

    • Supprimez de manière proactive les chemins d’attaque critiques de l’IA

    • Comprendre le contexte complet des risques dans le cloud et les charges de travail

    • Hiérarchiser et résoudre les problèmes de sécurité de l’IA les plus critiques

  4. Sécurité des données: Wiz AI-SPM étend les capacités de gestion de la posture de sécurité des données (DSPM) à l’IA. Cela permet de :

    • Détectez automatiquement les données d’entraînement sensibles.

    • Assurez la sécurité des données d’entraînement de l’IA avec des contrôles DSPM AI prêts à l’emploi

    • Identifiez et supprimez les chemins d’attaque susceptibles d’entraîner Fuite de données ou empoisonnement

  5. Tableau de bord de sécurité IA: Wiz propose un tableau de bord de sécurité IA qui fournit une file d’attente hiérarchisée des problèmes de sécurité de l’IA. Cela permet aux développeurs d’IA et aux data scientists de comprendre rapidement leur posture de sécurité en matière d’IA et de se concentrer sur les risques les plus critiques.

Example of Wiz's AI security dashboard

En mettant en œuvre ces capacités, Wiz AI-SPM aide les organisations à maintenir une posture de sécurité solide pour leurs systèmes d’IA, ce qui rend beaucoup plus difficile pour l’IA sombre de fonctionner sans être détectée dans l’environnement. Les fonctionnalités de visibilité complète, de surveillance continue et d’atténuation proactive des risques fonctionnent ensemble pour réduire la surface d’attaque et minimiser le potentiel d’activités d’IA non autorisées ou malveillantes.

Orange construit de nombreux services d’IA générative à l’aide d’OpenAI. La prise en charge d’Azure OpenAI Service par Wiz nous offre une visibilité considérablement améliorée sur nos pipelines d’IA et nous permet d’identifier et d’atténuer de manière proactive les risques auxquels sont confrontées nos équipes de développement d’IA.

Accelerate AI Innovation, Securely

Learn why CISOs at the fastest growing companies choose Wiz to secure their organization's AI infrastructure.

Pour plus d’informations sur la façon dont Wiz traite vos données personnelles, veuillez consulter notre Politique de confidentialité.