Estrutura de gerenciamento de risco de IA do NIST

Equipe de especialistas do Wiz

O Estrutura de gerenciamento de risco de IA do NIST (AI RMF) é um guia projetado para ajudar as organizações a gerenciar os riscos de IA em todas as etapas do ciclo de vida da IA, desde o desenvolvimento até a implantação e até mesmo o descomissionamento. Ele fornece uma maneira estruturada de identificar, avaliar e mitigar Riscos da IA sem sufocar a inovação.

O ritmo acelerado da adoção da IA traz sérios desafios para as organizações que buscam aproveitar o poder transformacional da IA: como garantir que os sistemas de IA sejam confiáveis, éticos e seguros? Você pode identificar e mitigar efetivamente os riscos em todo o ciclo de vida da IA? E talvez o mais importante, como você navega no crescente labirinto de regulamentações de IA enquanto constrói confiança com seus usuários?

Enfrentar esses desafios requer mais do que intuição – exige uma abordagem estruturada e alinhada ao setor. É aí que o Instituto Nacional de Padrões e Tecnologia (NIST), uma autoridade global que promove padrões de segurança e inovação, entra. O NIST AI Risk Management Framework (AI RMF) visa orientar as organizações a garantir sua adoção de IA de maneira compatível e responsável.

Por que a gestão de riscos em IA é essencial?

O gerenciamento de riscos de IA é essencial para lidar com os riscos de IA, antes que eles possam atrapalhar os negócios ou causar danos aos usuários. Agora, mais do que nunca, você precisa adotar práticas de gerenciamento de risco de IA. Aqui está o porquê:

  1. Os sistemas de IA são onipresentes. A IA não opera no vácuo. Está incorporado em setores que afetam todos os aspectos de nossas vidas, desde o diagnóstico de condições médicas até a aprovação de empréstimos. Sem salvaguardas fortes, mesmo pequenos descuidos podem levar a consequências significativas. Um exemplo do mundo real: Tesla'O recurso Autopilot causou vários incidentes, incluindo colisões e mortes, devido a interpretações errôneas do veículo's arredores.

  2. Os sistemas de IA são cada vez mais complexos. Modelos avançados de IA, como modelos de linguagem grande (LLMs), operam de maneiras que geralmente são opacas para os usuários. Isso é conhecido como o problema da "caixa preta". A falta de transparência dificulta a proteção, auditoria ou confiança nas decisões de IA, especialmente quando se trata de segurança GenAI. Um caso em questão: a tecnologia Deepfake tem sido usada para criar vídeos realistas, mas completamente falsos, fazendo com que figuras públicas sejam deturpadas.

  3. As regulamentações de IA estão se tornando mais urgentes. Os governos estão intervindo com requisitos rígidos que exigem transparência e mitigação de riscos para sistemas de IA. A UE's Lei de IA e da Califórnia Lei de Privacidade do Consumidor (CCPA) são dois dos principais regulamentos de IA que as organizações precisam cumprir. 

  4. Alinhar a IA com os valores organizacionais é uma obrigação. A IA mal administrada pode levar a erros éticos que corroem a confiança do público. Por exemplo, em janeiro de 2025, A Apple também enfrentou reações negativas sobre seu resumo de notícias com inteligência artificiall, que deturpou tópicos delicados, levando a empresa a pausar o recurso e trabalhar em melhorias.

É claro que os riscos de IA não resolvidos podem atrapalhar os negócios e até mesmo causar danos aos usuários. A padronização do gerenciamento de riscos de IA ajuda as organizações, fornecendo diretrizes claras que garantem a conformidade regulatória, mantêm os padrões éticos e aumentam a confiança do público.

Top AI challenges according to survey results from the AI Readiness Report

Wiz's Relatório sobre o estado da segurança da IA em 2025 destaca vulnerabilidades como o DeepLeak, onde um banco de dados DeepSeek expôs informações confidenciais, e o SAPwned, que permitiu que invasores assumissem o controle do SAP AI Core. Esses incidentes ressaltam a importância de estruturas como o NIST AI RMF para identificar e mitigar riscos em todo o ciclo de vida da IA.

Get an AI Security Sample Assessment

Take a peek behind the curtain to see what insights you’ll gain from Wiz AI Security Posture Management (AI-SPM) capabilities.

Um olhar mais detalhado sobre o RMF de IA do NIST

Você pode pensar no NIST AI RMF como um manual para a adoção responsável da IA. Ele foi projetado para ajudar as empresas a se manterem à frente dos riscos, garantindo que os sistemas de IA sejam seguros, éticos e transparentes. 

Lembre-se de que o arcabouço é totalmente voluntário para adoção, e por isso o NIST o tornou adaptável, em vez de um manual "tamanho único" — ou seja, organizações de todos os tamanhos, em qualquer setor e país, podem adaptá-lo às suas necessidades específicas.

Por que o RMF da IA do NIST foi criado?

O NIST criou o AI RMF em resposta à crescente complexidade dos sistemas de IA e à crescente necessidade de padrões seguindo um 30 de outubro de 2023, Ordem Executiva de IA. Ao facilitar a colaboração entre governo, indústria e academia, o NIST projetou a estrutura com os seguintes objetivos principais:

  • Estabelecer padrões consistentes e acionáveis para gerenciar riscos de IA

  • Permitir que as organizações identifiquem e abordem ameaças potenciais antes que elas escalem

  • Construir uma base para práticas éticas, seguras e transparentes de IA que fortaleçam a confiança pública

Quando foi criado o RMF de IA do NIST?

O primeiro rascunho do NIST AI RMF estreou em março de 2022, com a versão final sendo lançada em janeiro de 2023. 

Figure 1: The official NIST AI RMF timeline (Source: NIST)

Mantendo-se à frente da curva, o NIST também introduziu o Perfil de IA generativa em julho de 2024, atendendo especificamente aos desafios impostos pelos sistemas de IA da geração em rápida evolução. 

Qual é a estrutura do RMF de IA do NIST?

O NIST AI RMF é dividido em duas partes principais que, juntas, orientam sua organização no gerenciamento de riscos de IA em todo o ciclo de vida. 

O framework também inclui materiais de apoio para ajudar você a aplicar essas diretrizes de forma eficaz, especificamente:

  • Manual de RMF de IA: Um guia passo a passo para implementar o NIST AI RMF

  • Roteiro de RMF de IA: Um cronograma para a adoção de práticas de gerenciamento de risco de IA

  • Faixas de pedestres AI RMF: Ferramentas para mapear práticas existentes para o NIST AI RMF

  • Perspectivas: Diferentes visões do gerenciamento de riscos de IA adaptadas a setores ou necessidades específicas

  • Casos de uso: Exemplos do mundo real de como as organizações estão operacionalizando o NIST AI RMF

Em seguida, vamos examinar as duas partes do NIST AI RMF com mais detalhes. 

NIST AI RMF - Parte 1. Sistemas de IA confiáveis e riscos organizacionais

A Parte 1 do NIST AI RMF se concentra em definir o que torna um sistema de IA "confiável". Ele estabelece princípios-chave como confiabilidade, transparência, justiça, responsabilidade e segurança, e também apresenta riscos comuns de IA, como: 

  • Viés: Algoritmos de IA que refletem discriminação não intencional

  • Violações de privacidade: Pipelines de IA manipulam dados confidenciais incorretamente

  • Lacunas de segurança: Vulnerabilidades dos sistemas de IA que os invasores podem explorar

  • …e muitos outros.

O objetivo da Parte 1 é ajudar sua organização a identificar, abordar e reduzir riscos de IA, promovendo soluções de IA que sejam transparentes, auditáveis e explicáveis — garantindo que os sistemas de IA sejam não apenas eficazes, mas também éticos e seguros.

NIST AI RMF - Parte 2. Quatro funções principais do Framework 

A Parte 2 do RMF de IA apresenta as quatro funções e categorias principais sob as quais o framework organiza suas diretrizes acionáveis:

Core FunctionWhat it helps you doWhy it matters
GovernDefine governance structures, assign roles, and outline responsibilities for managing AI risksHelps align AI systems with standards, regulations, and organizational values
Map Identify and assess risks throughout the AI lifecycleFosters proactive identification of risks to promote AI security, and ensures AI aligns with governance practices
MeasureQuantify and assess the performance, effectiveness, and risks of AI systemsEnsures that AI remains stable, efficient, and compliant over time
ManageDevelop strategies for mitigating risks and ensuring AI systems remain compliant and secureFacilitates continuous monitoring, auditing, and improvement to minimize risk exposure

O objetivo da Parte 2 é oferecer uma abordagem estruturada para a gestão de riscos em IA, organizando práticas essenciais sob essas funções centrais, permitindo que sua organização integre a gestão de riscos em seus sistemas de IA e aprimore continuamente suas soluções de IA.

AI-SPM for Dummies [Guide]

This guide will give you actionable insights on how to protect your organization from AI-specific threats and empower your team to implement security measures that go beyond traditional approaches.

Como você pode adotar o RMF da IA do NIST?

Adotar o RMF de IA do NIST não é uma jornada única para todos, mas com uma abordagem sistemática, você pode fazer funcionar para sua organização.

Conhecendo o nível de maturidade da sua organização, você pode comparar seu atual

  • 1. Entenda seu ecossistema de IA: Comece criando uma lista de materiais de IA (AI-BOM) para obter visibilidade de seus ativos de IA. Esse inventário ajuda a garantir que você entenda todo o escopo de seus sistemas de IA e onde podem estar as vulnerabilidades potenciais.

  • 2. Avalie e priorize os riscos: Use a função "Mapa" da estrutura para identificar riscos em seus sistemas de IA. Por exemplo, seu chatbot de IA voltado para o cliente está alinhado com as leis de privacidade? Seus modelos estão alinhados com as diretrizes éticas?

  • 3. Determine seu nível de maturidade: O NIST define quatro níveis de maturidade de IA:

    • Nível 1 - Parcial: Consciência de risco limitada

    • Nível 2 - Informado sobre o risco: Uma compreensão básica de riscos e mitigações

    • Nível 3 - Repetível: O gerenciamento de riscos é sistemático e documentado

    • Nível 4 - Adaptável: O gerenciamento de riscos de IA está totalmente integrado e em evolução

Conhecendo o nível de maturidade da sua organização, você pode comparar seu atual Recursos de segurança de IA e priorizar melhorias futuras.

  • 4. Integrar e agir: Alinhe o NIST AI RMF com seu ciclo de vida de IA. Por exemplo:

    • Aplique a função "Governar" para estabelecer uma responsabilidade clara pelas suas ferramentas de IA Geracionais.

    • Use a função "Medir" para testar e refinar continuamente os resultados da IA para garantir justiça e precisão.

Para organizações que buscam acelerar esse processo,

  • 5. Monitore, aprenda e itere: Os sistemas de IA evoluem, assim como sua abordagem para gerenciá-los. Atualizações regulares, como a incorporação do Generative AI Profile do NIST para segurança e conformidade GenAI, garantem que sua estratégia de gerenciamento de riscos permaneça à frente da curva.

Para organizações que buscam acelerar esse processo, AI-SPM oferece uma solução abrangente e proativa para Gerenciamento de riscos de IA em ambientes de nuvem. O WIZ AI-SPM simplifica o gerenciamento de riscos de IA com recursos como AI-BOM sem agente, avaliações de risco automatizadas e análise de caminho de ataque, todos projetados para se alinhar ao NIST AI RMF.

Dica profissional

Looking for AI security vendors? Check out our review of the most popular AI Security Solutions ->

O que vem a seguir? Wiz para AI-SPM

O NIST AI RMF oferece um caminho claro para gerenciar o complexo cenário de riscos e regulamentações de IA. Ao adotar essa estrutura, as organizações podem garantir que seus sistemas de IA permaneçam éticos, seguros e em conformidade com as regulamentações globais em evolução.

A Wiz está empenhada em ajudar as organizações a aprimorar sua postura de segurança de IA e operacionalizar as estruturas de gerenciamento de risco de IA de forma eficaz, incluindo Conformidade com o NIST, por meio de nossa oferta AI-SPM.

Pronto para saber mais? Visite o Página da Web do Wiz para IA, ou se preferir um demonstração ao vivo, adoraríamos nos conectar com você.