Ferramentas de segurança de IA: o kit de ferramentas de código aberto

8 Minuto de leitura

Quais são as melhores ferramentas para proteger a IA? Se você pesquisar a resposta online, notará uma lacuna de conhecimento considerável. Embora existam muitas informações sobre as ferramentas de SecOps baseadas em IA, não há muito disponível sobre as ferramentas de segurança que alimentam as operações de SecOps para aplicativos de IA e aprendizado de máquina (ML). É aí que entra este artigo. 

Nesta postagem do blog, vamos nos aprofundar no cenário de ferramentas do MLSecOps, revisando as cinco áreas fundamentais do MLSecOps, explorando a crescente importância do MLSecOps para as organizações e apresentando seis ferramentas interessantes de código aberto para conferir, além da solução de gerenciamento de postura de segurança de IA oferecida pela Wiz.

Uma introdução ao MLSecOps

MLSecOps, ou AISecOps, é uma nova disciplina que visa definir processos de SecOps e práticas recomendadas adaptadas especificamente para proteger pipelines de ML e IA em escala. Combinando elementos-chave de SecOps e MLOps, o MLSecOps surgiu como um aumento necessário para o DevSecOps tradicional, abordando os desafios distintos de aplicativos de IA e MLOps.

O que é MLSecOps?

Proteger aplicativos de IA é o objetivo do MLSecOps, que é um campo que ganhou um público mais amplo pela primeira vez em 2023.

O MLSecOps ainda é muito novo (daí a falta de informação online!), mas muitos recursos estão sendo defendidos pelo Comunidade MLSecOps. Uma dessas contribuições é a definição de cinco áreas fundamentais do MLSecOps, incluindo objetivos nos quais as equipes de segurança podem concentrar seus esforços: 

  1. Vulnerabilidade da cadeia de suprimentos: Avalie a segurança de toda a cadeia de suprimentos de IA.

  2. Proveniência do modelo: Rastreie a origem, linhagem e evolução dos modelos de IA ao longo de seu ciclo de vida.

  3. Governança, risco e conformidade (GRC): Estabelecer políticas, procedimentos e controles para adesão às normas regulatórias internas e externas. 

  4. IA confiável: Oferecer sistemas de IA transparentes, justos e responsáveis tanto para as partes interessadas internas quanto para os usuários externos. 

  5. Aprendizado de máquina adversário: Proteja os sistemas de IA testando contra ataques adversários, especialmente aqueles destinados a influenciar o comportamento do modelo.

(Lembre-se de que esta é a primeira iteração dos objetivos do MLSecOps e você pode esperar que a lista cresça com o tempo.)

A lista da Comunidade MLSecOps aborda dois aspectos fundamentais dos aplicativos de IA: a dependência de provedores de código aberto ou de terceiros para conjuntos de dados, bibliotecas, estruturas, modelos, infraestrutura e soluções; e a natureza não determinística dos modelos de IA, o que os torna difíceis de entender e proteger, bem como impossíveis de controlar totalmente. Ao focar nessas cinco áreas de Segurança de IA, as empresas podem lançar aplicativos de IA seguros para a organização e os usuários. 

Como as organizações estão adotando o MLSecOps?

MLSecOps é uma disciplina especializada que requer soluções ad-hoc. 

Embora algumas grandes organizações já tenham adotado o MLSecOps, a maioria das organizações está apenas começando, ou considerando começar, sua jornada. Dado o conhecimento técnico e os recursos necessários para começar a usar o MLSecOps, faz sentido que a maioria das empresas esteja começando do zero. 

Ainda assim, considerando que o MLSecOps deve se tornar indispensável para todas as organizações à medida que a adoção da IA continua aumentando, e considerando que novos regulamentos, como o Lei de IA da UE e o Ordem Executiva de 2023 sobre segurança de IA, estão entrando em vigor, as equipes de segurança precisam priorizar a proteção de aplicativos de IA.

As 6 principais ferramentas de segurança de IA de código aberto

Escolher as ferramentas certas é a melhor maneira de reforçar sua postura de segurança de IA. Abaixo, você pode aprender sobre algumas das ferramentas de segurança de IA de código aberto mais interessantes disponíveis. Essas ferramentas foram selecionadas como amplamente aplicáveis a uma variedade de modelos e estruturas de IA, mas também existem outras ferramentas especializadas de código aberto, como Análise de modelo do TensorFlow, e vale a pena pesquisar para atender às necessidades exclusivas da sua organização. 

Ao avaliar a adoção dessas ferramentas de código aberto, lembre-se de que elas podem ter manutenção e suporte limitados. Sua escolha mais segura é confiar em provedores de segurança terceirizados - você pode aprender sobre Gerenciamento de postura de segurança de IA da Wiz no final do artigo.

  1. Defesa NB

  2. Caixa de ferramentas de robustez adversária

  3. Garak

  4. Medidor de privacidade

  5. IA de auditoria

  6. explorações de IA

1. Defesa NB 

Defesa NB é uma extensão JupyterLab e ferramenta CLI para gerenciamento de vulnerabilidades de IA, oferecida pela Protect AI. 

Figure 1: View of NB Defense's contextual guidance (Source: nbdefense.ai)

O JupyterLab é o ambiente de desenvolvimento de modelos de IA mais usado para equipes de ciência de dados em todo o mundo. Ao fornecer gerenciamento de vulnerabilidades diretamente na origem do desenvolvimento do modelo, o NB Defense permite que as equipes incorporem a segurança no início do ciclo de vida do ML. Ele também permite que o pessoal não relacionado à segurança introduza diretamente controles de segurança confiáveis de maneira direta e fácil de usar. 

  • Funcionalidade principal: Detectar vulnerabilidades antecipadamente, desde segredos e dados PII até vulnerabilidades e exposições comuns (CVEs) e licenças de terceiros, fornecendo orientação contextual para cientistas de dados no JupyterLab e verificação avançada automatizada de repositório para operadores de segurança 

Área de foco do MLSecOps: IA confiável, via DevSecOps e análise de vulnerabilidades

2. Caixa de ferramentas de robustez adversária 

A caixa de ferramentas de robustez adversária (ART) é uma biblioteca Python para defesa de ML contra ameaças adversárias, hospedada pela Linux AI & Base de dados.

Figure 2: A Computer Vision adversarial patch with ART (Source: github.com/Trusted-AI/adversarial-robustness-toolbox)

A IA pode oferecer muitos caminhos diferentes para atores adversários, desde a extração de dados dos usuários até a criação de falsificações profundas ou a disseminação de desinformação. O ART foi criado com desenvolvedores e pesquisadores em mente: a biblioteca suporta a avaliação de uma ampla variedade de modelos e aplicativos desenvolvidos em todos os tipos de dados e os defende contra as ameaças adversárias mais comuns à IA. 

  • Funcionalidade principal: Defende contra ataques adversários de evasão, envenenamento, inferência e extração por meio de um amplo catálogo de ataques, estimadores, defesas, avaliações e métricas pré-criados

  • Área de foco do MLSecOps: Aprendizado de máquina adversário, via Agrupamento vermelho e azul

Caixa de tolos e Inteligente Hans são duas bibliotecas semelhantes ao ART que também valem a pena conferir. 

3. Garak 

Garak é um pacote Python para a varredura de vulnerabilidades de grandes modelos de linguagem (LLMs), criado por Leon Derczynski. 

Figure 3: A vulnerability scan of ChatGPT by Garak (Source: github.com/leondz/garak)

A nova onda de adoção de IA começou com a comercialização de LLMs como ChatGPT. Os LLMs estão sendo rapidamente adotados por muitas organizações para desbloquear o potencial de negócios, geralmente por meio de integrações de terceiros. Garak oferece a capacidade de escanear todos os LLMs mais populares, de OpenAI a HuggingFace e LangChain, para garantir que estejam seguros.

  • Funcionalidade principal: Fornece scanners de vulnerabilidade predefinidos para LLMs para sondar alucinações, desinformação, linguagem prejudicial, jailbreaks, vulnerabilidade a vários tipos de injeção imediatae muito mais 

  • Área de foco do MLSecOps: Aprendizado de máquina adversário, via análise de vulnerabilidade de LLMs para red teaming

4. Medidor de privacidade 

Medidor de privacidade é uma biblioteca Python para auditar a privacidade de dados de modelos de ML, desenvolvida pelo NUS Data Privacy and Trustworthy Machine Learning Lab.

Figure 4: How to run an attack with Privacy Meter (Source: github.com/privacytrustlab/ml_privacy_meter/)

Os modelos de IA são treinados em grandes quantidades de dados. Vazamento de dados de treinamento é uma das ameaças mais comuns e caras aos modelos de IA. O Privacy Meter fornece uma análise quantitativa dos riscos fundamentais de privacidade de (quase) qualquer modelo estatístico e de ML, coletados em relatórios prontos para uso com informações abrangentes sobre os riscos individuais e agregados dos registros de dados. As pontuações de privacidade permitem que você identifique facilmente os registros de dados de treinamento com alto risco de vazamento por meio de parâmetros ou previsões do modelo. 

  • Funcionalidade principal: Executa ataques de inferência de associação de última geração, personalizáveis por meio de blocos de configuração para usar uma variedade de jogos, algoritmos e sinais de privacidade predefinidos 

  • Área de foco do MLSecOps: IA confiável, por meio de avaliação de risco, especialmente como parte do processo de avaliação de impacto da proteção de dados 

5. IA de auditoria

IA de auditoria é uma biblioteca Python para testes de viés de ML, oferecida pela pymetrics.

Figure 5: Bias analysis against gender discrimination with Audit AI (Source: github.com/pymetrics/audit-ai/)

Os modelos de IA aprendem com os padrões fornecidos nos dados de treinamento e podem perpetuar preconceitos e discriminação presentes neles. O Audit AI fornece maneiras de medir o viés para modelos estatísticos e de ML por meio de um pacote fácil de usar criado em duas bibliotecas com as quais os cientistas de dados estão muito familiarizados: pandas e sklearn. Os cientistas de dados podem usar os resultados de viés fornecidos pela IA de auditoria para impulsionar mudanças no pipeline de desenvolvimento de modelos que podem mitigar o viés. 

  • Funcionalidade principal: Fornece implementações de testes de viés e técnicas de auditoria de algoritmos para tarefas de classificação e regressão, como o teste z de Fisher e o fator de Bayes

  • Área de foco do MLSecOps: IA confiável, por meio de testes e auditorias manuais

6. explorações de IA 

explorações de IA é uma coleção de explorações e modelos de verificação de vulnerabilidades do mundo real, mantida pela Protect AI. 

Figure 6: Public vulnerabilities listed on Huntr (Source: huntr.com)

As equipes de segurança podem ampliar a experiência em IA fornecida por SMEs internos testando aplicativos de IA em relação às explorações coletadas em explorações de IA. Construído com base em pesquisas realizadas pela Protect AI e vulnerabilidades descobertas na plataforma Huntr Bug Bounty, esta coleção de explorações do mundo real visa ajudá-lo a proteger seus sistemas de IA atuais. O AI-Exploits também ajuda você a examinar fornecedores terceirizados.

  • Funcionalidade principal: Verifica uma variedade de vulnerabilidades por meio de ferramentas pré-criadas. Cada ferramenta é composta por módulos para explorar a vulnerabilidade e modelos para verificar automaticamente a vulnerabilidade. Atualmente, oferece suporte apenas a H2O, MLflow e Ray para execução remota de código, inclusão de arquivos locais, gravações arbitrárias de arquivos, falsificação de solicitações entre sites e falsificação de solicitações do lado do servidor.

  • Área de foco do MLSecOps: Vulnerabilidade da cadeia de suprimentos e aprendizado de máquina adversário, por meio de varredura de vulnerabilidades e red teaming

Aumente a segurança da sua IA com o Wiz

Para seus aplicativos de IA nativos da nuvem, você pode confiar em Wiz Gerenciamento de postura de segurança de IA (AI-SPM) para proteger seus aplicativos de IA. 

Figure 7: The AI Security Dashboard offered as part of Wiz’s AI-SPM

AI-SPM oferece visibilidade completa de seus pipelines de IA, descobrindo e documentando automaticamente serviços e tecnologias de IA para produzir uma AI-BOM, protegendo você contra IA sombria. O AI-SPM também impõe linhas de base de configuração seguras com regras integradas que podem detectar configurações incorretas em serviços de IA, bem como em sua IaC, e permite que você descubra e remova proativamente caminhos de ataque críticos relacionados a modelos de IA e dados de treinamento com priorização de risco precisa.

Com o Wiz, você pode contar com infraestrutura e serviços gerenciados de última geração para sua segurança de IA, o que pode ajudá-lo a configurar uma camada de segurança forte para seus pipelines de IA - agora mesmo. Saiba mais acessando o Página da Web do Wiz para IA. Se preferir um Demonstração ao vivo, adoraríamos nos conectar com você.

Develop AI Applications Securely

Learn why CISOs at the fastest growing companies choose Wiz to secure their organization's AI infrastructure.

Ver demonstração