Varredura de segurança de modelos de IA: Melhores práticas para segurança em nuvem

Equipe de especialistas do Wiz
Principais takeaways
  • A varredura de segurança de modelos de IA identifica vulnerabilidades em modelos de aprendizado de máquina antes da implantação

  • A varredura abrangente abrange arquivos de modelo, dados de treinamento e endpoints de inferência

  • A integração com pipelines CI/CD possibilita segurança shift-left para cargas de trabalho de IA

  • O monitoramento em tempo de execução detecta manipulação de modelos e ataques adversariais em produção

  • Plataformas unificadas oferecem priorização consciente do contexto entre riscos de IA e nuvem

Entendendo a digitalização de segurança de modelos de IA

A varredura de segurança de modelos de IA é o processo de verificar seus modelos e sua pilha ao redor em busca de problemas de segurança ao longo de todo o ciclo de vida. Isso inclui varredura estática de artefatos (arquivos de modelo, dependências, formatos de serialização), aplicação de pipeline e políticas (portas CI/CD, controles de admissão), testes dinâmicos de endpoints (injeção de prompt, padrões de abuso) e monitoramento em tempo de execução (anomalias comportamentais, detecção de deriva). Você examina o artefato do modelo, dados de treinamento, endpoints de inferência e infraestrutura em nuvem que os hospeda.

Modelos de IA na nuvem enfrentam algumas ameaças específicas que você não vê em aplicativos normais. Você vai encontrar termos como Extração de modelos, Envenenamento de dados, e Injeção Rápida –padrões de ataque que estão em aumento, segundo uma pesquisa recente da Gartner. Essas ameaças visam diferentes estágios do ciclo de vida da IA, desde o treinamento até a inferência em produção.

  • Extração de modelos: Um atacante copia seu modelo'O comportamento ou parâmetros enviando muitas consultas elaboradas.

  • Envenenamento de dados: Dados maliciosos são inseridos em treinamento ou ajuste fino para que o modelo se comporte de forma incorreta ou carregue uma porta oculta.

  • Injeção rápida e entradas adversariais: Os inputs são elaborados para sobrepor instruções, vazar dados ou forçar comportamentos inseguros. Pesquisas sobre red-teaming (por exemplo, este estudo) demonstram violações generalizadas de políticas contra agentes de IA, mostrando que prompts adversariais podem contornar os limites de segurança em múltiplas arquiteturas de modelos.

Ferramentas tradicionais de segurança focam em servidores e redes. Eles raramente entendem Ataques de serialização de modelos (código malicioso escondido em arquivos de modelos), Conjuntos de dados de treinamento expostos, Inferência de membros (determinando se dados específicos estavam no conjunto de treinamento), ou Inversão de modelo (reconstruindo dados originais de treinamento a partir dos resultados).

Você deve pensar em termos de Combinações tóxicas, não achados isolados. Por exemplo, uma vulnerabilidade de modelo se torna grave quando:

  • O modelo pode ser chamado pela internet.

  • O modelo tem acesso a repositórios de dados sensíveis.

  • O host modelo tem permissões excessivamente amplas na sua conta na nuvem.

Na prática, isso significa que seus principais riscos vivem onde modelos vulneráveis, identidades poderosas e dados importantes se encontram. Uma empresa global de serviços descobriu vulnerabilidades em LLMs dessa forma e usou roteamento automático para enviar problemas para as equipes exatas que possuíam cada modelo, em vez de forçar a segurança a perseguir os proprietários manualmente.

25 AI Agents. 257 Real Attacks. Who Wins?

From zero-day discovery to cloud privilege escalation, we tested 25 agent-model combinations on 257 real-world offensive security challenges. The results might surprise you 👀

Implementação de descoberta e inventário abrangentes de modelos

A descoberta de modelos é encontrar todos os ativos de IA no seu ambiente. O inventário de modelos mantém um registro atualizado desses ativos, o que eles tocam e quem os possui.

Você quer que esse inventário inclua serviços gerenciados, modelos auto-hospedados e qualquer coisa experimental. Isso significa puxar para dentro:

  • Endpoints gerenciados de plataformas como SageMaker, Azure ML ou Vertex AI.

  • Implantações personalizadas em Kubernetes, VMs ou serverless.

  • Infraestrutura de treinamento, repositórios de recursos e trabalhos de inferência em lote.

Quando você souber onde os modelos vivem, conecte-os a como foram construídos. É Linhagem do modelo: rastrear um modelo desde dados de treinamento, passando por pipelines, até endpoints de produção.

  • Registro de modelos: Use ou crie um local central para registrar cada modelo de produção.

  • Inventário de pipeline de IA: Mapear repositórios de código, trabalhos de treinamento, etapas de avaliação e tarefas de implantação.

  • Propriedade: Marque modelos com nomes de equipes, serviços e unidades de negócios para que as questões possam ser atribuídas instantaneamente.

Você também precisa emergir Modelos de IA sombra. São modelos que as equipes montam sozinhas, muitas vezes fora da revisão oficial, mas ainda assim guardados nas suas contas na nuvem — uma tarefa importante, já que as cargas de trabalho de IA cresceram rapidamente ano após ano no último relatório de uso do Sysdig.

Uma empresa orientada por dados que passou por várias fusões usou essa abordagem para IA de varredura Uso em seis ambientes diferentes. Com um único gráfico de inventário e segurança, eles finalmente podiam ver quais modelos usavam dados sensíveis e quais estavam expostos à internet, independentemente de qual empresa original os tivesse construído.

Automação da varredura de modelos em pipelines CI/CD

Escanear modelos em CI/CD significa que você trata modelos como qualquer outro artefato em seus pipelines de build. Você escaneia antes de passarem para a produção ou palco, não apenas depois que estão ao vivo.

Comece adicionando verificações de segurança de modelos como etapas explícitas do pipeline. Quando o treinamento ou ajuste fino termina e um arquivo modelo é produzido, você:

  • Artefatos do modelo de varredura para desserialização insegura e código incorporado. Prefira formatos mais seguros como safetensors em vez de pickle, e carregue em bloco código personalizado não confiável. Arquivos pickle podem executar código Python arbitrário durante a desserialização, criando um risco direto de execução de código.

  • Verifique o ambiente e os contêineres em busca de vulnerabilidades conhecidas e configurações incorretas.

  • Gerar um SBOM para IA que lista todos os frameworks e dependências envolvidos.

Depois, aplicar regras com policy-as-code. Por exemplo, você pode codificar: Nenhum modelo de produção pode referenciar um repositório de dados de desenvolvimento. Um motor de políticas unificado que abrange código, pipelines, nuvem e runtime ajuda as equipes a bloquear implantações arriscadas de IA cedo e a manter a política consistente entre os ambientes, reduzindo a chance de um modelo passar por configurações perigosas.

  • Nenhum modelo de produção pode referenciar um repositório de dados de desenvolvimento.

  • Nenhuma implantação é permitida se existirem vulnerabilidades críticas em frameworks de ML.

  • Nenhum endpoint público é permitido para projetos ou tipos de dados específicos.

No Kubernetes, adicione Controladores de Admissão como o OPA Gatekeeper ou o Kyverno como último portal. Esses controladores interceptam solicitações de implantação e aplicam políticas antes que os recursos sejam criados no cluster.

  • Contratação de modelos: Exija artefatos do modelo assinados e verifique assinaturas antes de servir.

  • Varredura IaC: Valide Terraform, Helm e outros templates que sustentam infraestrutura de IA.

  • Implantações não conformes: Falhe rápido e transmita mensagens claras para a equipe proprietária.

Uma empresa global de produtos usa esse padrão para detectar configurações erradas antes que os recursos em nuvem sejam criados. Você pode aplicar a mesma abordagem para qualquer tentativa de IA de varredura Modelos e infraestrutura acontecem automaticamente, a cada mudança.

Garantindo a implantação de serviços de IA em nuvem

Proteger serviços de IA na nuvem é sobre como você expõe e conecta seus modelos. Você pode ter um arquivo de modelo perfeitamente seguro e ainda assim criar um grande problema de segurança de modelo com as escolhas erradas de implantação.

Foque primeiro em como os endpoints são expostos. Faça perguntas simples como: "Quem pode chamar isso?" e "De onde?"

  • Exposição ao ponto final: Prefira endpoints privados a públicos sempre que possível. Use AWS PrivateLink para endpoints SageMaker, Azure Private Link para Azure ML ou GCP Private Service Connect para Vertex AI. Isso mantém o tráfego de inferência dentro da sua VPC e fora da internet pública.

  • Controles de rede: Use construções de redes privadas como AWS PrivateLink, Azure Private Link ou GCP Private Service Connect para manter os endpoints de inferência fora da internet pública. Malhas de serviço e gateways internos adicionam camadas adicionais de aplicação de políticas.

Depois, bloqueie a autenticação e as permissões. Cada chamada para um modelo deve ser autenticada, e o ambiente de atendimento deve seguir o privilégio mínimo.

  • Autenticação: Use padrões fortes de autenticação como identidade de carga de trabalho ou tokens de curta duração. Identidades de máquinas superam em muito as identidades humanas em ambientes de nuvem e frequentemente são mais arriscadas devido ao excesso e permissões não utilizadas que se acumulam ao longo do tempo.

  • Permissões: Garanta que os hosts modelo só possam ler os buckets, filas ou segredos específicos que realmente precisam.

Você também precisa ficar atento Deriva de configuração. O desenvolvedor pode estar usando uma configuração bloqueada enquanto a produção avança silenciosamente para "aberto ao mundo" território.

  • Verificações de deriva: Compare regularmente dev, staging e produção para exposição ao endpoint, criptografia, logging e configurações de identidade.

  • Criptografia: Certifique-se de que os arquivos de modelo e os dados de treinamento estejam criptografados em repouso usando chaves de criptografia gerenciadas pelo cliente (CMEK) via AWS KMS, Azure Key Vault ou GCP Cloud KMS. Proteja o tráfego em trânsito com TLS 1.3 para todos os endpoints de inferência e transferências de dados.

Quando você segura implantações dessa forma, Segurança do modelo deixa de ser apenas sobre o modelo e vira parte da sua higiene de nuvem mais ampla.

Sample AI Security Assessment

Get a glimpse into how Wiz surfaces AI risks with AI-BOM visibility, real-world findings from the Wiz Security Graph, and a first look at AI-specific Issues and threat detection rules.

Proteção e monitoramento do modelo em tempo de execução

A proteção em tempo de execução é como você observa os modelos quando eles estão realmente atendendo o tráfego. Aqui você se importa menos com propriedades do arquivo modelo e mais com comportamento.

Comece implantando Sensores de tempo de execução na sua infraestrutura de serviço de modelos, ou ative a telemetria nativa em nuvem onde os sensores estão disponíveis'Não é viável. Esses componentes leves baseados em eBPF podem ver:

  • Processos suspeitos começando em hosts modelo.

  • Gravações inesperadas de arquivos ou conexões de rede.

  • Fugas de contêiner ou tentativas de escalada de privilégios.

Ao mesmo tempo, você monitora o comportamento do modelo. Padrões incomuns em pedidos ou respostas frequentemente apontam para ataques ou uso indevido. Juntar a telemetria em tempo de execução com identidade em nuvem, exposição de rede e contexto de sensibilidade de dados elimina falsos positivos e triagem de velocidade—você foca em anomalias que realmente importam, em vez de perseguir cada exceção.

  • Análise comportamental: Procure picos estranhos, padrões de prompts estranhos ou uma análise intensa de casos extremos.

  • Exfiltração de dados: Fique atento a tentativas de enviar dados dos hosts modelo para destinos que você não reconhece.

Você também acompanha Deriva. Quando as saídas do modelo ou distribuições de entrada mudam de maneiras que você não esperava, isso pode ser sinal de envenenamento, sistemas a montante quebrados ou um ataque silencioso.

Uma empresa de software que depende do Kubernetes para cargas de trabalho críticas utiliza sensores de tempo de execução para proteger serviços conteinerizados. Os mesmos sensores agora os ajudam a detectar cargas de trabalho de IA que de repente começam a fazer chamadas de saída ou a agir de maneiras que não correspondem aos padrões normais de inferência, dando alerta antecipado antes que os danos se espalhem.

Gerenciando a segurança modelo da cadeia de suprimentos

Modelo Segurança da cadeia de suprimentos é sobre a origem dos seus modelos e componentes de ML. É fácil puxar um modelo open-source poderoso e, sem querer, também puxar uma porta dos fundos oculta.

Você deve verificar a origem e a integridade de todos os modelos de terceiros e de código aberto que você utiliza. Isso inclui pesos pré-treinados, checkpoints de ajuste fino e até pequenos modelos auxiliares.

  • Proveniência do modelo: Registre de onde veio cada modelo e como ele foi alterado.

  • Varredura de repositórios: Escaneie os repositórios do modelo para artefatos maliciosos ou formatos conhecidos como inseguros. Impor a assinatura do modelo e verificar as assinaturas antes do uso para garantir que os modelos tenham'Foram adulterados entre o treinamento e a missão.

Em seguida, mantenha uma limpeza Lista de materiais de software para cada modelo. Esse SBOM deve listar frameworks, bibliotecas e componentes do sistema dos quais o modelo depende.

  • Varredura de dependências: Verifique continuamente essa lista em relação aos feeds de vulnerabilidades.

  • Atualizações regulares: Planeje e teste atualizações para frameworks críticos de ML quando surgirem vulnerabilidades.

É assim que você evita que uma vulnerabilidade silenciosa do modelo de um pacote upstream se torne um compromisso completo. Você trata sua cadeia de suprimentos modelo de IA com o mesmo cuidado que sua cadeia de suprimentos de contêineres ou sistema operacional, com atenção extra Manipulação de modelos e Ataques na cadeia de suprimentos que são exclusivos da IA.

GenAI Security Best Practices Cheat Sheet

This cheat sheet provides a practical overview of the 7 best practices you can adopt to start fortifying your organization’s GenAI security posture.

Estruturas de governança e conformidade para modelos de IA

A governança de modelos de IA é o conjunto de regras que você estabelece para como os modelos são construídos, implantados e utilizados. Conformidade é como você prova que seguiu essas regras.

Você começa definindo políticas para o ciclo de vida do modelo. Essas apólices devem cobrir acesso, aprovações e quando os modelos devem ser aposentados.

  • Políticas de acesso: Quem pode ver dados de treinamento, pesos de modelos e logs de inferência.

  • Políticas de uso: Onde um modelo pode ser usado, para quais usuários e com quais tipos de dados.

  • Apólices de aposentadoria: Quando um modelo precisa ser retirado de serviço e o que acontece com seus dados.

Depois, você define os fluxos de trabalho de aprovação. Modelos de alto impacto ou alto risco devem passar por um processo de revisão mais formal antes de entrarem em produção.

Você também mapeia seus controles de IA para padrões externos e internos como NIST AI, RMF 1.0, ISO/IEC 42001 e regulamentos aplicáveis como o EU AI Act. Alinhar os controles de suporte ao SOC 2 e à ISO 27001 quando pertinente para demonstrar uma governança abrangente de segurança.

  • Governança da IA: Documente quem aprovou o modelo, quais testes foram realizados e como os riscos foram avaliados.

  • Avaliação de risco do modelo: Classifique os modelos em categorias de risco com base nos dados que utilizam e no impacto da falha.

  • Mapeamento de conformidade: Relacione seus controles de modelo aos frameworks de segurança e privacidade que sua organização segue. Controles de acesso ao modelo de mapas para o RMF de IA do NIST's Governar a função, treinando a proteção de dados conforme a ISO/IEC 42001's requisitos de governança de dados e monitoramento em tempo de execução para controles contínuos de monitoramento SOC 2 Tipo II. Para indústrias reguladas, alinhe-se com requisitos setoriais como HIPAA para IA em saúde ou PCI DSS para modelos de processamento de pagamentos.

Fazendo isso, você se transforma Segurança do modelo de um conjunto de decisões ad hoc para um processo repetível que as equipes jurídicas, de risco e de segurança podem compreender.

Resposta a incidentes para modelos de IA comprometidos

Resposta a incidentes por IA é o que você faz quando algo dá errado em um modelo. Você lida com isso como qualquer outro incidente, mas com foco extra em modelos, dados e pipelines.

Você começa escrevendo playbooks específicos para IA. Esses manuais devem cobrir coisas como roubo de modelos, uso indevido de modelos e ataques adversariais.

  • Um endpoint de serviço de modelo está se comportando de forma estranha ou servindo saídas inesperadas.

  • Você descobre um modelo ou conjunto de dados envenenado no seu ambiente.

  • Alguém copiou ou baixou pesos de modelos sem aprovação.

Cada manual deve detalhar etapas claras de contenção. Por exemplo, você pode:

  • Limite de taxa ou desative endpoints específicos de inferência.

  • Mude o tráfego para uma versão segura anterior.

  • Corte identidades ou redes suspeitas de chamar o modelo e imediatamente rodar ou revogar credenciais, tokens e chaves de API impactados. Isso impede que atacantes mantenham o acesso por meio de material de autenticação comprometido.

Você também precisa Modelismo forense. É assim que você investiga o que aconteceu, usando logs, linhagem de modelos e dados do ambiente.

  • Forense: Capture artefatos do modelo, logs e dados relevantes para análise.

  • Análise do caminho de ataque: Rastreie como o atacante migrou de problemas de modelos ou bibliotecas para recursos em nuvem mais amplos.

Uma empresa de serviços financeiros que enfrentou uma vulnerabilidade crítica em uma biblioteca relacionada a IA usou esse tipo de visibilidade para identificar exatamente quais cargas de trabalho usaram o componente defeituoso e corrigi-las rapidamente. Esse mesmo padrão funciona para qualquer evento de segurança relacionado à IA.

Técnicas avançadas de segurança de modelos

Controles avançados de segurança de modelos são camadas extras que você adiciona quando a situação é alta. Eles não são a primeira coisa que você constrói, mas se tornam importantes para cargas de trabalho sensíveis.

Alguns dos mais comuns:

  • Marca d'água do modelo: Você adiciona um sinal ou comportamento invisível a um modelo para depois provar que é seu ou detectar cópias.

  • Privacidade diferencial: Você treina modelos de uma forma que limita o que um atacante pode aprender sobre qualquer ponto de dado individual, mesmo com acesso às saídas.

  • Criptografia homomórfica: Você estrutura dados e cálculos para que certas inferências possam acontecer em dados criptografados, reduzindo a exposição dos valores brutos.

  • Treinamento adversarial: Você intencionalmente treina modelos com exemplos adversariais para que eles aprendam a resistir a esses padrões de ataque.

Essas ferramentas podem ajudar contra roubo de modelos, vazamento de dados de treinamento e ataques adversariais. Elas vêm com compensações em desempenho e complexidade, então você as aplica onde o perfil de risco realmente justifica o custo.

Construindo um programa unificado de segurança em IA com a Wiz

Um programa unificado de segurança de IA é quando a segurança de IA e a segurança em nuvem compartilham a mesma plataforma, dados e fluxos de trabalho. Você para de administrar um sistema separado "Segurança de IA" Island e trazê-la para o seu modelo operacional atual. Essa abordagem está alinhada com o OWASP Top 10 para Aplicações LLM, ajudando você a abordar os riscos de segurança mais críticos para sistemas de IA de forma estruturada.

Você começa colocando todos os seus ativos em uma única visão. Isso inclui modelos, repositórios de dados, computação, identidades, pipelines e endpoints.

  • Visualização de grafos de segurança: Use um gráfico de segurança para mostrar como um determinado modelo se conecta a dados de treinamento, dados de produção, identidades e redes. O contexto dos grafos entre modelos, repositórios de dados, identidades e endpoints facilita rastrear a propriedade e direcionar problemas rapidamente para a equipe certa, então a segurança não funciona'Vira um gargalo.

  • Priorização contextual: Problemas de rank baseados em caminhos de ataque reais, não apenas em pontuações brutas de severidade.

Depois, você conecta a automação. Quando vulnerabilidades do modelo, configurações incorretas ou exposições de dados são encontradas, elas devem ser direcionadas automaticamente para as equipes certas.

  • Remediação automatizada: Crie regras que abram chamados, enviem alertas ou desencadeem falhas no pipeline quando certas condições forem atendidas. Com Remediação de IA 2.0, você recebe sugestões baseadas em IA que recomendam correções específicas adaptadas ao seu ambiente, acelerando a resolução e reduzindo o trabalho manual.

  • Capacidades shift-left: Dê aos cientistas de dados e engenheiros de ML acesso à digitalização em seus IDEs, notebooks e pipelines de CI para que possam corrigir problemas cedo.

Uma plataforma unificada reúne essas ideias em um só lugar. Wiz AI-SPM avalia serviços de IA para configurações e exposições de risco. O Wiz Security Graph então mostra como vulnerabilidades, configurações incorretas e permissões excessivas se combinam em caminhos de ataque que podem ameaçar seus modelos de IA e dados de treinamento.

Com cobertura sem agente, você obtém visibilidade full-stack sem adicionar agentes pesados aos servidores de modelagem. Faça uma demonstração para explorar varredura sem agente, proteção em tempo de execução e visibilidade unificada para suas cargas de trabalho de IA em nuvem.

See Wiz AI-SPM in Action

Accelerate AI adoption securely with continuous visibility and proactive risk mitigation across your AI models, training data, and AI services.

Para obter informações sobre como a Wiz lida com seus dados pessoais, consulte nosso Política de Privacidade.

Perguntas frequentes sobre escaneamento de segurança de modelos de IA