다크 AI란?

다크 AI는 인공 지능(AI) 기술을 악의적으로 사용하여 사이버 공격과 데이터 침해를 촉진하는 것을 포함합니다. 다크 AI는 AI 도구의 우발적 및 전략적 무기화를 모두 포함합니다. 

AI의 긍정적인 이점으로는 향상된 자동화, 향상된 데이터 기반 의사 결정, 간소화된 워크플로, 최적화된 기술 및 IT 비용 등이 있습니다. 다크 AI를 이해하려면 이러한 기능과 이점이 적의 손에 있다고 상상해 보십시오.

위협 행위자는 무수한 목적으로 AI를 사용하지만, 주요 목표는 일반적으로 엔터프라이즈 IT 에코시스템을 손상시키고 민감한 데이터에 액세스하는 것입니다. Dark AI는 사이버 범죄자에게 기업의 IT 인프라를 악용할 수 있는 새롭고 고유한 방법을 제공합니다. 사이버 범죄자는 AI를 사용하여 맬웨어, 랜섬웨어 및 피싱과 같은 사회 공학 공격과 같이 더 일반적으로 알려진 사이버 위협의 배포를 가속화할 수도 있습니다.

에 따르면 가트너기업 리스크 고위 임원 10명 중 8명은 AI 기반 사이버 공격이 2024년 가장 큰 리스크로 떠오를 것이라고 주장했습니다.

응답자의 66%는 AI가 주도하는 잘못된 정보가 2024년의 가장 강력한 위협이라고 주장했다. AI가 계속해서 성장하고, 발전하고, 다양한 산업을 혼란에 빠뜨림에 따라 기업은 다크 AI의 다가오는 위협을 인식해야 합니다.

Get an AI-SPM Sample Assessment

In this Sample Assessment Report, you’ll get a peek behind the curtain to see what an AI Security Assessment should look like.

다크 AI가 왜 그렇게 위험한가요? 

다크 AI가 다른 보안 위험과 달리 어떻게 그리고 왜 기업을 위협하는지 알아보기 전에 AI의 비즈니스 애플리케이션에 대해 더 자세히 알아보겠습니다.

AI는 현대 사이버 보안에서 중요한 역할을 합니다. 오늘날 많은 주요 기업이 사이버 보안 스택에 AI 도구를 포함하고 있습니다. 에 따르면 IBM입니다.2023년에 AI 기반 사이버 보안 기능을 갖춘 기업은 그렇지 않은 기업보다 데이터 침해를 108일 더 빨리 해결했습니다. 또한 이러한 기업은 데이터 유출 비용에서 180만 달러를 절약했습니다.

Source: Survey results from the Wiz AI Security Readiness Report

사이버 보안 외에도 기업은 AI(특히 생성형 AI)을 사용하여 다양한 미션 크리티컬 클라우드 작업을 수행할 수 있습니다. 우리의 연구 기업의 70%가 Azure AI 서비스, Azure OpenAI, 아마존 SageMaker, Azure ML 스튜디오, Google Cloud의 Vertex AI, GCP AI 플랫폼. 응답자의 42%는 BERT, DistilBERT, RoBERTa, T5, Llama 및 MPNet과 같은 모델을 사용하여 어느 정도 자체 호스팅 AI를 사용한다고 답했습니다. 이러한 모든 AI 모델, 워크플로 및 파이프라인은 다크 AI 공격에 취약합니다. 

다크 AI가 모든 기업의 사이버 보안 최우선 순위가 되어야 하는 이유를 자세히 살펴보겠습니다. 

  • 향상된 공격 빈도: 다크 AI 도구는 이전에 볼 수 없었던 속도로 악성 코드 및 기타 종류의 공격을 배포하여 기업의 방어에 지속적으로 도전할 수 있습니다. 

  • 더 높은 공격량: 다크 AI 도구를 사용하면 위협 행위자가 수동 개입 없이 악성 코드를 대량으로 발송할 수 있습니다. 과거에는 대부분의 위협 행위자에게 너무 많은 시간과 리소스 집약적이었을 것입니다. 

  • 보다 현실적인 사회 공학: 다크 AI는 공격자가 직원을 속여 민감한 데이터를 유출하고 엔터프라이즈 네트워크에 대한 액세스 권한을 부여하도록 하는 매우 현실적이고 믿을 수 있는 이메일 및 커뮤니케이션의 배포를 자동화하는 데 도움이 될 수 있습니다.

  • 신속한 주입 가능성 증가: 다크 AI를 사용하면 공격자는 다양한 미션 크리티컬 생성형 AI 애플리케이션의 훈련 데이터를 조작하고 손상시킬 수 있습니다. 성공한 프롬프트 삽입 공격 엔터프라이즈 IT 에코시스템의 권한과 통제권을 적에게 넘겨줍니다. 

  • 사이버 보안 도구를 우회하는 향상된 기능: 다크 AI 도구는 지속적으로 데이터를 분석하고, 자체 최적화하고, 공격을 자동화할 수 있기 때문에 공격자는 기업의 사이버 보안 태세에 지속적으로 압력을 가할 수 있습니다. 기업이 요새를 지속적으로 개선하지 않으면 데이터 침해는 더욱 임박한 위협이 됩니다. 

  • 멀티미디어 사기 사용 증가: 위협 행위자는 다크 AI를 사용하여 악의적이고 사실적인 멀티미디어 아티팩트를 생성할 수 있습니다. 사이버 공격자는 이러한 미디어 아티팩트를 사용하여 평판 손상을 입히고, 딥페이크를 사용하여 가짜 뉴스를 퍼뜨리고, 음성 복제 및 생체 인식 조작을 통해 기업 사이버 보안 및 인증 시스템을 속입니다. 실제 예: 2024년 4월, 해커가 라스트패스 WhatsApp 통화에서 회사 CEO를 사칭하여 직원. 이는 AI가 생성한 오디오 딥페이크를 사용하여 수행되었으며, 이 공격은 공격자가 보안 메커니즘을 우회하고 직원을 속이기 위해 사실적인 오디오(및/또는 사진)를 생성하는 많은 사례 중 하나일 뿐입니다. 

  • 더 많은 수의 사이버 범죄자: 다크 AI는 기술적 통찰력이 없는 사람들도 포함하여 모든 배경의 사이버 범죄자에게 힘을 실어줍니다. AI가 등장하기 전에는 기업이 막대한 기술 지식과 리소스를 갖춘 위협 행위자와만 상대하면 되었습니다. 오늘날 다크 AI를 사용하면 노트북을 가지고 악의적인 의도를 가진 사람이라면 누구나 대규모 피해를 입힐 수 있습니다.

100 Experts Weigh In on AI Security

Learn what leading teams are doing today to reduce AI threats tomorrow.

다크 AI 공격을 위한 실제 도구

이 섹션에서는 위협 행위자가 다크 AI 공격에 활용할 수 있는 5가지 실제 도구를 중점적으로 설명합니다. 

모든 다크 AI 도구가 본질적으로 악성인 것은 아니라는 점을 기억하세요. 대부분의 경우 위협 행위자는 합법적인 도구를 리버스 엔지니어링하거나 다크 AI 목적으로 도구의 용도를 변경할 수 있습니다.

ToolDescription
FraudGPTFraudGPT is a malicious mirror of ChatGPT that’s available through dark web marketplaces and social media platforms like Telegram. FraudGPT can help adversaries write malicious code, compose phishing messages, design hacking tools, create undetectable malware, and identify the most viewed or used websites and services.
AutoGPTAutoGPT is an open-source tool that hackers use for malicious purposes. While not inherently destructive, AutoGPT allows threat actors to establish malicious end goals and train models to self-learn to achieve those goals. With tools like AutoGPT, threat actors can attempt thousands of potentially destructive prompts that involve breaching an enterprise’s defenses, accessing sensitive data, or poisoning GenAI tools and training data.
WormGPTAnother nefarious cousin of ChatGPT, WormGPT has none of the guardrails and security measures that its GPT-3-based architecture originally featured. Hackers trained WormGPT with a vast amount of cyberattack- and hacker-related training data, making it a powerful weapon against unsuspecting enterprises.
PoisonGPTPoisonGPT is a unique dark AI tool because threat actors didn’t create it. Instead, PoisonGPT was an educational initiative conducted by researchers to reveal the vulnerabilities of large language models (LLMs) and the potential repercussions of poisoned LLMs and a compromised AI supply chain. By poisoning the training data of LLMs leveraged by enterprises, governments, and other institutions with PoisonGPT-esque tools and techniques, threat actors can cause unimaginable damage.
FreedomGPTFreedomGPT is an open-source tool that anyone can download and use offline. Because it doesn’t feature any of the guardrails or filters that its more mainstream cousins have, FreedomGPT is unique. Without these filters, threat actors can weaponize FreedomGPT with malicious training data. This makes it easy for threat actors to spread or inject misinformation, biases, dangerous prompts, or explicit content into an enterprise’s IT environment.

어두운 AI 위협을 완화하기 위한 모범 사례

다크 AI 위협이 크게 도사리고 있지만 사이버 위협을 완화하고 AI 에코시스템을 보호하기 위해 취할 수 있는 조치가 있습니다. 

MLSecOps 도구 활용

AISecOps라고도 하는 MLSecOps는 AI 및 ML 파이프라인 보안과 관련된 사이버 보안 분야입니다. 통합 클라우드 보안 플랫폼은 다크 AI 및 기타 사이버 위협에 맞서기 위한 이상적인 솔루션이지만, 기업은 다음을 통해 보안 스택을 강화하는 방안도 모색해야 합니다 MLSecOps 도구 NB Defense, Adversarial Robustness Toolbox, Garak, Privacy Meter 및 Audit AI와 같습니다.

Figure 1: Bias analysis with Audit AI (Source: GitHub)

DSPM 솔루션에 AI 보안이 포함되어 있는지 확인

레버리지를 활용하는 기업의 경우 데이터 보안 태세 관리(DSPM), 솔루션이 AI 교육 데이터를 포함하는지 확인하는 것이 중요합니다. 어두운 AI 도구로부터 AI 교육 데이터를 보호하면 AI 생태계를 다음과 같이 유지할 수 있습니다. ChatGPT 보안, 손상되지 않고 효율적입니다. DSPM 솔루션이 없는 기업은 클라우드 기반을 보호할 수 있는 솔루션을 선택해야 합니다. AI 교육 데이터.

Figure 2: Identifying AI data leakage with Wiz’s DSPM capabilities

셀프 서비스 AI 보안 도구로 개발자 역량 강화

AI 기반 DevOps 파이프라인을 보호, 감시 및 관리하기 위해 개발자에게 강력한 보안 도구와 기능을 제공합니다. AI 보안 대시보드 또는 공격 경로 분석기를 통해 AI 파이프라인을 보고, 유지 관리하고, 최적화하면 기업은 중앙 집중식 보안 모델에 의존할 필요가 없습니다. 

GenAI 서비스를 위한 테넌트 아키텍처 최적화

GenAI 통합 서비스를 위해 기업은 테넌트 아키텍처 모델을 신중하게 선택하고 복잡하게 구성해야 합니다. 예를 들어 공유 다중 테넌트 아키텍처는 기본 모델 또는 기본 미세 조정 모델에 이상적입니다. 전용 테넌트 아키텍처는 사용자가 미세 조정한 모델에 가장 적합합니다. 인덱스, 프롬프트 및 응답 기록, API 엔드포인트와 같은 AI 구성 요소의 경우 기업은 테넌트 아키텍처를 결정하기 전에 사용 사례의 복잡성을 평가해야 합니다. 

(Source: Wiz's State of AI in the Cloud Report)

그림자 AI에 빛을 비추다 

그림자 AI 비즈니스 IT 환경 내에서 IT 또는 보안 팀이 인식하지 못하는 모든 AI 도구를 나타냅니다. 숨겨진 AI 도구는 위협 행위자의 공격 벡터가 될 수 있습니다. 공격자의 관점에서는 보안 제어를 우회할 필요가 없기 때문에 다크 AI 도구를 사용하여 숨겨진 AI 인프라를 악용하는 것이 더 쉽습니다. 그렇기 때문에 섀도우 AI를 식별하고 해결하는 데 집중하는 것이 중요합니다. 

State of AI in the Cloud [2025]

Did you know that over 70% of organizations are using managed AI services in their cloud environments? That rivals the popularity of managed Kubernetes services, which we see in over 80% of organizations! See what else our research team uncovered about AI in their analysis of 150,000 cloud accounts.

샌드박스 환경에서 AI 애플리케이션 테스트

위협 행위자가 AI 기반 애플리케이션을 악성 코드로 감염시키지 않도록 하려면 샌드박스 환경에서 해당 애플리케이션을 꼼꼼하게 테스트해야 합니다. 테스트를 통해 기업은 위협 행위자가 악용할 수 있는 보안 취약성, 약점 및 격차를 보다 정확하게 이해할 수 있습니다.

통합 클라우드 보안 솔루션으로 다크 AI와 전투

어두운 AI로부터 보호하기 위해 선택할 수 있는 보안 도구는 셀 수 없이 많습니다. 그러나 기업이 다크 AI 위협으로부터 AI 파이프라인을 안전하게 보호할 수 있는 가장 포괄적이고 효율적인 방법은 통합 클라우드 보안 솔루션을 시운전하는 것입니다. 통합 플랫폼을 통해 AI 보안 및 AI 리스크 관리 더 큰 사이버 보안 관점에서 사이버 보안 강화를 통합하십시오. 

Wiz가 어두운 AI로부터 사용자를 보호하는 방법

위즈 AI-SPM (AI Security Posture Management)는 조직이 AI 환경을 관리하고 보안을 유지할 수 있도록 설계된 포괄적인 보안 솔루션입니다. AI 파이프라인에 대한 완전한 가시성을 제공하고, 잘못된 구성을 식별하고, 다양한 AI 관련 위험으로부터 보호합니다.

Wiz AI-SPM은 다음과 같은 몇 가지 주요 방법으로 다크 AI의 위협을 완화하는 데 도움이 될 수 있습니다.

  1. 풀 스택 가시성: 인공지능-SPM 이를 통해 AI 파이프라인에 대한 포괄적인 가시성을 제공합니다. AI-BOM(Bill of Materials, 자재 명세서) 기능. 이를 통해 보안 팀은 다음을 수행할 수 있습니다.

    • 에이전트를 사용하지 않고 환경의 모든 AI 서비스, 기술, 라이브러리 및 SDK를 식별합니다.

    • 환경에 도입된 새로운 AI 서비스를 즉시 감지합니다.

    • 다양한 기술을 승인됨, 원치 않음 또는 검토되지 않음으로 플래그를 지정합니다.

    이러한 가시성은 인증 없이 작동할 수 있는 섀도우 AI 및 잠재적으로 악성적인 AI 시스템을 발견하는 데 매우 중요합니다.

  2. 구성 오류 감지: Wiz AI-SPM은 AI 서비스의 잘못된 구성을 식별하여 AI 보안 기준을 적용하는 데 도움이 됩니다. 다음과 같은 보안 문제에 대해 AI 서비스를 평가하기 위한 기본 제공 구성 규칙을 제공합니다.

    • 과도한 권한이 있는 SageMaker 노트북

    • 공개 IP 주소가 있는 Vertex AI Workbench 노트북

    이러한 구성 오류를 감지함으로써 조직은 다크 AI에 의해 악용될 수 있는 취약성을 줄일 수 있습니다.

  3. 공격 경로 분석: Wiz는 공격 경로 분석을 AI로 확장하여 취약성, ID, 인터넷 노출, 데이터, 구성 오류 및 기밀 전반에 걸쳐 위험을 평가합니다. 이를 통해 조직은 다음을 수행할 수 있습니다.

    • 중요한 AI 공격 경로를 선제적으로 제거

    • 클라우드와 워크로드 전반의 위험에 대한 전체 컨텍스트 이해

    • 가장 중요한 AI 보안 문제의 우선순위를 정하고 해결

  4. 데이터 보안: Wiz AI-SPM은 DSPM(Data Security Posture Management) 기능을 AI로 확장합니다. 이는 다음과 같은 이점을 제공합니다.

    • 민감한 교육 데이터를 자동으로 감지합니다.

    • 즉시 사용 가능한 DSPM AI 제어로 AI 교육 데이터의 보안 보장

    • 다음을 유발할 수 있는 공격 경로 식별 및 제거 데이터 유출 또는 중독

  5. AI 보안 대시보드: Wiz는 AI 보안 문제의 우선 순위 대기열을 제공하는 AI 보안 대시보드를 제공합니다. 이를 통해 AI 개발자와 데이터 사이언티스트는 AI 보안 태세를 빠르게 이해하고 가장 중요한 위험에 집중할 수 있습니다.

Example of Wiz's AI security dashboard

Wiz AI-SPM은 이러한 기능을 구현하여 조직이 AI 시스템에 대한 강력한 보안 태세를 유지할 수 있도록 지원하여 다크 AI가 환경 내에서 감지되지 않고 작동하는 것을 훨씬 더 어렵게 만듭니다. 포괄적인 가시성, 지속적인 모니터링 및 사전 예방적 위험 완화 기능이 함께 작동하여 공격 표면을 줄이고 무단 또는 악의적인 AI 활동의 가능성을 최소화합니다.

Orange는 OpenAI를 사용하여 많은 생성형 AI 서비스를 구축합니다. Wiz의 Azure OpenAI Service 지원을 통해 AI 파이프라인에 대한 가시성이 크게 향상되고 AI 개발 팀이 직면한 위험을 사전에 식별하고 완화할 수 있습니다.

Accelerate AI Innovation, Securely

Learn why CISOs at the fastest growing companies choose Wiz to secure their organization's AI infrastructure.

Wiz가 귀하의 개인 데이터를 처리하는 방법에 대한 자세한 내용은 다음을 참조하십시오. 개인정보처리방침.