AIセキュリティとは何ですか?
AI セキュリティは、AI インフラストラクチャをサイバー攻撃から守ることに重点を置いたエンタープライズ サイバーセキュリティの重要なコンポーネントです。多数の AI テクノロジが組織の構造に織り込まれているため、AI セキュリティに重点を置くことは不可欠です。AI は、最新の開発プロセス、ワークロード自動化、ビッグ データ分析の原動力です。また、多くの製品やサービスに不可欠なコンポーネントになりつつあります。たとえば、銀行アプリは金融サービスを提供していますが、これらのアプリ内のチャットボットや仮想アシスタントなどの AI を活用したテクノロジが、さらなる付加価値をもたらします。
世界の AI インフラストラクチャ市場は、2027 年までに 960 億ドル以上に達すると予測されています。マッキンゼーによると、 2017 年から 2022 年にかけてAI の採用は 250% 増加し、最も顕著なユースケースには、サービス運用の最適化、新しい AI ベースの製品の作成、顧客サービス分析、顧客セグメンテーションなどが含まれています。残念ながら、これらの AI ユースケースのすべてが、サイバー攻撃やその他の脆弱性の影響を受けやすいのです。
これは氷山の一角にすぎません。データ エンジニアやその他のアジャイル チームは、大規模言語モデル (LLM) などの GenAI ソリューションを活用して、迅速かつ大規模なアプリケーションを開発しています。多くのクラウド サービス プロバイダー (CSP) は、この開発をサポートする AI サービスを提供しています。Azure Cognitive Services、Amazon Bedrock、GCP の Vertex AI などの AI サービスについて聞いたことがあるか、使用したことがあるかもしれません。このようなサービスとテクノロジにより、チームは AI アプリケーションをより迅速に開発および展開できるようになりますが、これらのパイプラインには多くのリスクが伴います。結局のところ、AI は多くの人が信じているほど安全ではなく、堅牢な防御が必要です。
GenAI ベストプラクティス [チートシート]
弊社の包括的な GenAI セキュリティ ベスト プラクティス チート シートを使用して、生成 AI アプリケーションを保護するための 7 つの重要な戦略をご確認ください。
チートシートをダウンロード人工知能はどの程度安全(または不安全)なのでしょうか?
AI をめぐる議論は、倫理や AI が人間の労働力を置き換える可能性に焦点が当てられることが多い。しかし、Forrester は、 2032 年までに米国でAI に置き換えられる 1,100 万の仕事は、他の新しい仕事の機会によってバランスが取られると主張している。比較的見過ごされがちな複雑さは、AI とサイバーセキュリティの交差点にある。脅威アクターは AI を利用してマルウェアを配布し、コードやデータセットに感染させる。AI の脆弱性はデータ侵害の一般的なベクトルであり、AI を組み込んだソフトウェア開発ライフサイクル (SDLC) はますます脆弱性の影響を受けやすくなっている。
特に GenAI は多くのリスクをもたらします。GenAI の危険な潜在性はWormGPT のようなツールに見られます。WormGPT は ChatGPT に似ていますが、犯罪行為の実行に重点を置いています。幸いなことに、サイバーセキュリティにおける AI の応用は、 ChatGPT のセキュリティが進化するにつれて、このような脅威を防ぐために使用されています。サイバーセキュリティにおける AI 市場は2028 年までに 606 億ドルに達すると予想されており、人間のセキュリティチームが AI を活用せずに AI によって促進される大規模なサイバー攻撃を特定して修復することは困難であることを示しています。
サイバーセキュリティ AI は、AI を利用したセキュリティ脅威と戦う上で引き続き大きな役割を果たします。脅威アクターは LLM プロンプトをベクトルとして使用して GenAI モデルを操作し、機密情報を漏らす可能性があるため、これは重要です。CSP はまもなく AI 革命を完全に受け入れる可能性が高く、これは重要なインフラストラクチャと開発関連の決定が AI チャットボットによって促進されることを意味します。チャットボットを武器として使用すること(WormGPT や FraudGPT など) は、企業が AI 関連のサイバーセキュリティの予測不可能な課題に対処しなければならないことを示唆しています。
AI は保護可能であることを覚えておくことが重要です。ただし、AI は本質的に安全というわけではありません。
Gartner® 新興技術: GenAI のセキュリティ リスク トップ 4
このレポートでは、ガートナーは、セキュリティおよび製品リーダーがこれらのリスクによってもたらされる主要な変革の機会に対応することで競争上の優位性を獲得するための洞察と推奨事項を示しています。
レポートをダウンロードAIのセキュリティリスク
AI セキュリティに取り組む最善の方法は、リスクを徹底的に理解することです。最大のAI セキュリティ リスクを見てみましょう。
攻撃対象領域の拡大
GenAI などの AI を SDLC に統合すると、企業の IT インフラストラクチャが根本的に変わり、多くの未知のリスクが生じます。これは本質的に、攻撃対象領域の拡大を意味します。AI の包括的なセキュリティ上の課題は、すべての AI インフラストラクチャがセキュリティ チームの管理下にあることを確認することです。AI インフラストラクチャを完全に可視化することで、脆弱性を修正し、リスクを軽減し、攻撃対象領域を制限することができます。
クラウドにおける AI の現状 2024
70% を超える組織がクラウド環境でマネージド AI サービスを使用していることをご存知ですか? これは、80% を超える組織で使用されているマネージド Kubernetes サービスの人気に匹敵します。当社の研究チームが 150,000 のクラウド アカウントを分析して AI について発見したその他の事実をご覧ください。
PDFをダウンロードデータ侵害や漏洩の可能性が高まる
攻撃対象領域が広がることによるリスクには、ダウンタイム、混乱、利益損失、評判の低下、その他の重大な長期的影響が含まれます。The Independentによると、2023 年 8 月だけで 4,300 万件の機密記録が侵害されました。AI セキュリティが最適でないと、重要な情報が侵害され、データ侵害の被害者リストに加わる可能性があります。
ウィズブログ
チャットボットの認証情報の盗難
盗まれた ChatGPT やその他のチャットボットの認証情報は、ダークウェブ上の違法市場で新たな人気商品となっています。2022 年から 2023 年にかけて 10 万件を超えるChatGPT アカウントが侵害されており、危険な AI セキュリティ リスクが今後さらに高まる可能性が高まっています。
脆弱な開発パイプライン
AI パイプラインは脆弱性の範囲を広げる傾向があります。たとえば、データとモデルのエンジニアリングを含むデータ サイエンスの領域は、従来のアプリケーション開発の境界を超えて機能することが多く、新たなセキュリティ リスクにつながります。
データの収集、処理、保存のプロセスは、機械学習エンジニアリングの分野では基本的なものです。モデル エンジニアリング タスクとの統合には、侵害、知的財産の盗難、サプライ チェーン攻撃、データの操作や汚染からデータを保護するための強力なセキュリティ プロトコルが必要です。データの整合性を確保することは、意図的および偶発的なデータの不一致を減らす上で極めて重要です。
データ汚染
データ ポイズニングとは、GenAI モデルを操作することです。悪意のあるデータセットを入力して結果に影響を与え、バイアスを作成します。研究者によって設計された攻撃であるTrojan Puzzle は、脅威アクターが GenAI モデルが悪意のあるペイロードを振り付けるために学習するデータセットに影響を与えて感染させる可能性がある例です。
直接的な迅速な注射
ダイレクト プロンプト インジェクションは、脅威アクターが機密データを侵害または盗み出す目的で LLM プロンプトを意図的に設計するタイプの攻撃です。ダイレクト プロンプト インジェクションには、悪意のあるコードの実行や機密データの漏洩など、さまざまなリスクが伴います。
AI時代のサイバーセキュリティ:パネルディスカッション
AWS のセキュリティ担当シニアソリューションアーキテクトである Anna McAbee 氏、Figma のセキュリティエンジニアである Rami McCarthy 氏、Wiz のデータおよび脅威調査担当ディレクターである Alon Schindel 氏が、AI がセキュリティに与える影響を検討し、この強力な新技術の最適な使用方法について議論します。 今すぐ見る
Watch Now間接的な即効注射
間接プロンプト インジェクションとは、脅威アクターが GenAI モデルを信頼できないデータ ソースに誘導し、そのアクションに影響を与えて操作することです。この外部の信頼できないソースは、脅威アクターによってカスタム設計され、特定のアクションを意図的に誘発してペイロードに影響を与える可能性があります。間接プロンプト インジェクションの影響には、悪意のあるコードの実行、データ漏洩、エンド ユーザーへの誤った情報や悪意のある情報のプロビジョニングなどがあります。
幻覚の乱用
AI は特定の情報を幻覚させる傾向があり、世界中のイノベーターが幻覚の規模を縮小しようと取り組んでいます。しかし、それが実現するまで、AI の幻覚は重大なサイバーセキュリティ リスクをもたらし続けます。脅威アクターは、潜在的な AI 幻覚を登録して「正当化」し始めており、エンド ユーザーは悪意のある不正なデータセットの影響を受けた情報を受け取ることになります。
AIセキュリティフレームワークと標準
最大の AI セキュリティ リスクがわかったところで、企業がそのリスクを軽減する方法を簡単に見てみましょう。サイバー セキュリティ フレームワークは長い間、企業が増大する脅威から身を守るための強力なツールであり、これらの AI セキュリティ フレームワークは、セキュリティの脅威と脆弱性を修正するための一貫した一連の標準とベスト プラクティスを提供します。
NIST の人工知能リスク管理フレームワークは、 AI セキュリティを、統制、マッピング、測定、管理という 4 つの主要機能に分類します。
Mitre のAI セキュリティに関する賢明な規制フレームワークとATLAS Matrix は、攻撃戦術を分析し、特定の AI 規制を提案します。
OWASP のLLM 向けトップ 10 では、プロンプト インジェクション、サプライ チェーンの脆弱性、モデル盗難など、LLM に関連する最も重大な脆弱性を保護するための標準を特定し、提案しています。
Google のSecure AI Framework は、 AI システムに関連する課題を軽減するための 6 段階のプロセスを提供します。これには、自動化されたサイバーセキュリティ強化とAI リスクベースの管理が含まれます。
当社独自のPEACH フレームワークは、権限強化、暗号化強化、認証強化、接続強化、衛生管理 (PEACH) によるテナント分離を重視しています。テナント分離は、厳密な境界と厳格なアクセス制御によってクラウド環境を細分化されたセグメントに分割する設計原則です。
AIとサイバーセキュリティ:現在の最先端技術と今後の方向性
Clint Gibler 氏は、AI がサイバーセキュリティにどのように適用されているかを何百時間もかけて追跡してきました。そして今回、Clint 氏は、クラウド セキュリティ、Web セキュリティ、AppSec、攻撃的セキュリティなどに関する最高の記事、論文、講演を 1 つの講演にまとめ、現状を迅速に理解できるようにします。
今すぐ見るAIセキュリティに関する簡単な推奨事項とベストプラクティス
AI インフラストラクチャを保護するための鍵は、一連のベスト プラクティスを策定し、それに従うことです。ここでは、始めるにあたって役立つ 10 のベスト プラクティスを紹介します。
1. テナント分離フレームワークを選択する
PEACH テナント分離フレームワークはクラウド アプリケーション用に設計されましたが、同じ原則が AI セキュリティにも適用されます。テナント分離は、GenAI 統合の複雑さに対処する強力な方法です。
2. GenAIアーキテクチャをカスタマイズする
すべてのコンポーネントのセキュリティ境界が最適化されるように、GenAI アーキテクチャを慎重にカスタマイズする必要があります。一部のコンポーネントでは共有セキュリティ境界が必要な場合があり、他のコンポーネントでは専用の境界が必要な場合があり、また、さまざまなコンテキストに依存する場合もあります。
3. GenAIの輪郭と複雑さを評価する
GenAI を組織の製品、サービス、プロセスに統合することの影響をマッピングすることは必須です。重要な考慮事項としては、エンドユーザーに対する AI モデルの応答がプライベートで正確であり、正当なデータセットを使用して構築されていることが挙げられます。
4. 従来のクラウドに依存しない脆弱性を無視しない
GenAI は他のマルチテナント アプリケーションと何ら変わりありません。API の脆弱性やデータ漏洩などの従来の課題に悩まされる可能性があります。組織が AI 固有の課題を軽減するために、クラウド全体の脆弱性を無視しないようにしてください。
5. 効果的かつ効率的なサンドボックス化を実現する
サンドボックス化では、GenAI を組み込んだアプリケーションを隔離されたテスト環境に持ち込み、スキャンします。これは、AI の脆弱性を軽減するための強力な方法です。ただし、サンドボックス化環境が最適に構成されていることを確認してください。急いで構築された最適でないサンドボックス環境とプロセスは、AI セキュリティの脆弱性を悪化させる可能性があります。
6. 隔離レビューを実施する
テナント分離レビューでは、顧客向けインターフェースと内部セキュリティ境界の包括的なトポロジが提供されます。これにより、AI セキュリティの脆弱性を特定し、テナント分離をさらに最適化してサイバーセキュリティ インシデントを防ぐことができます。
7. 入力のサニタイズを優先する
AI セキュリティの脆弱性を軽減するために、GenAI システムでのユーザー入力に一定の制限を設けます。これらの制限は、極端に複雑である必要はありません。たとえば、テキスト ボックスを、入力オプションが制限されたドロップダウン メニューに置き換えることができます。入力サニタイズにおける最大の課題は、堅牢なセキュリティとスムーズなエンド ユーザー エクスペリエンスのバランスを見つけることです。
8. プロンプト処理を最適化する
GenAI を組み込んだアプリケーションでは、プロンプトの処理が不可欠です。企業はエンドユーザーのプロンプトを監視して記録し、疑わしいプロンプトにはレッドフラグを付ける必要があります。たとえば、プロンプトに悪意のあるコード実行の兆候が見られる場合、レッドフラグを付けて対処する必要があります。
9. 顧客からのフィードバックがセキュリティに与える影響を理解する
これは比較的リスクの低い AI セキュリティの課題とみなされるかもしれませんが、AI セキュリティの姿勢と実践に欠陥があってはなりません。実際、フィードバック テキスト ボックスにより、脅威アクターは GenAI を組み込んだアプリケーションに悪意のあるコンテンツを持ち込む可能性があります。シンプルなベスト プラクティスは、フリーテキスト フィードバック オプションをドロップダウン フィールドに置き換えることです。
10. 評判の良いAIセキュリティの専門家と協力する
AI は、テクノロジーの進歩の次の章の中心となるでしょう。だからこそ、AI セキュリティは重要であり、後回しにすることはできません。評判が高く、資格の高いクラウド セキュリティの専門家と協力することが、AI とサイバー セキュリティの体制を強化する最善の方法です。
Wiz で AI を保護する
Wiz は、プラットフォームに完全に統合されたネイティブ AI セキュリティ機能を提供する最初の CNAPPです。Wiz for AI Security では、次の新しい機能が導入されています。
AIセキュリティ態勢管理(AI-SPM):エージェントなしでAIパイプライン内のすべてのリソースとテクノロジーを特定することで、セキュリティチームとAI開発者にAIパイプラインの可視性を提供します。
DSPM を AI に拡張:すぐに使用できる新しい DSPM AI コントロールにより、機密性の高いトレーニング データを自動的に検出し、その安全性を確保します。
攻撃パス分析を AI に拡張: AI パイプラインに関するクラウドとワークロードの完全なコンテキストにより、組織は環境内の攻撃パスを積極的に排除できます。
AI セキュリティ ダッシュボード:リスクの優先順位付けされたキューとともに主要な AI セキュリティ問題の概要を提供し、開発者が最も重要な問題に迅速に集中できるようにします。
Wiz は、 Amazon SageMakerおよびVertex AIユーザー向けに AI セキュリティ サポートも提供しており、AI/ML モデルの管理に関連するセキュリティ リスクの監視と軽減に役立ちます。Vertex AI と Amazon SageMaker の統合向けにカスタマイズされた Wiz の機能には、堅牢なサンドボックス環境、クラウド アプリケーション全体の完全な可視性、AI パイプラインの保護、ML モデルの運用環境へのアジャイルな導入などがあります。デモをご覧になり、セキュリティを気にせずに AI の機能を最大限に活用する方法をご確認ください。
Wiz は、 Coalition for Secure AIの創設メンバーであることにも誇りを持っています。この分野の他の先駆者たちと力を合わせることで、Wiz は安全で倫理的な AI 開発という連合の使命を推進することに尽力しています。創設メンバーとして、Wiz は連合の戦略的方向性を形作り、政策策定に貢献し、AI テクノロジーのセキュリティと整合性を強化する革新的なソリューションを推進する上で重要な役割を果たしています。