Strumenti di sicurezza AI: il toolkit open source

8 minuti di lettura

Quali sono gli strumenti migliori per proteggere l'intelligenza artificiale? Se cerchi la risposta online, noterai una notevole lacuna di conoscenza. Sebbene esistano molte informazioni sugli strumenti SecOps basati sull'intelligenza artificiale, non è disponibile molto sugli strumenti di sicurezza che alimentano le operazioni SecOps per le applicazioni di intelligenza artificiale e machine learning (ML). È qui che entra in gioco questo articolo. 

In questo post del blog, approfondiremo il panorama degli strumenti MLSecOps esaminando le cinque aree fondamentali di MLSecOps, esplorando la crescente importanza di MLSecOps per le organizzazioni e introducendo sei interessanti strumenti open source da verificare, oltre alla soluzione di gestione della postura di sicurezza AI offerta da Wiz.

Un'introduzione a MLSecOps

MLSecOps, o AISecOps, è una nuova disciplina che mira a definire i processi SecOps e le best practice su misura per proteggere le pipeline di ML e AI su larga scala. Combinando gli elementi chiave di SecOps e MLOps, MLSecOps è emerso come un potenziamento necessario per DevSecOps tradizionale, affrontando le sfide distintive delle applicazioni AI e MLOps.

Che cos'è MLSecOps?

Proteggere le applicazioni di intelligenza artificiale è l'obiettivo di MLSecOps, un campo che ha guadagnato per la prima volta un pubblico più ampio nel 2023.

MLSecOps è ancora molto nuovo (da qui, la mancanza di informazioni online!), ma molte risorse sono sostenute dal Comunità MLSecOps. Uno di questi contributi è la definizione di cinque aree fondamentali di MLSecOps, inclusi gli obiettivi su cui i team di sicurezza possono concentrare i loro sforzi: 

  1. Vulnerabilità della catena di approvvigionamento: Valuta la sicurezza dell'intera supply chain dell'intelligenza artificiale.

  2. Provenienza del modello: Traccia l'origine, la derivazione e l'evoluzione dei modelli di intelligenza artificiale durante il loro ciclo di vita.

  3. Governance, rischio e conformità (GRC): Stabilire politiche, procedure e controlli per l'aderenza agli standard normativi interni ed esterni. 

  4. IA affidabile: offrire sistemi di intelligenza artificiale trasparenti, equi e responsabili sia nei confronti degli stakeholder interni che degli utenti esterni. 

  5. Apprendimento automatico avversario: Proteggi i sistemi di intelligenza artificiale testando gli attacchi avversari, in particolare quelli volti a influenzare il comportamento del modello.

Tieni presente che questa è la prima iterazione degli obiettivi MLSecOps e puoi aspettarti che l'elenco cresca nel tempo.

L'elenco della MLSecOps Community affronta due aspetti fondamentali delle applicazioni di intelligenza artificiale: la dipendenza da fornitori open source o di terze parti per set di dati, librerie, framework, modelli, infrastrutture e soluzioni; e la natura non deterministica dei modelli di intelligenza artificiale, che li rende difficili da comprendere e proteggere, nonché impossibili da controllare completamente. Concentrandosi su questi cinque settori di Sicurezza AI, le aziende possono rilasciare applicazioni di intelligenza artificiale sicure sia per l'organizzazione che per gli utenti. 

In che modo le organizzazioni stanno adottando MLSecOps?

MLSecOps è una disciplina specializzata che richiede soluzioni ad hoc. 

Mentre alcune grandi organizzazioni hanno già adottato MLSecOps, la maggior parte delle organizzazioni sta appena iniziando o sta pensando di iniziare il proprio viaggio. Date le conoscenze tecniche e le risorse necessarie per iniziare con MLSecOps, ha senso che la maggior parte delle aziende parta da zero. 

Tuttavia, considerando che si prevede che MLSecOps diventerà indispensabile per tutte le organizzazioni man mano che l'adozione dell'IA continua ad aumentare, e considerando che le nuove normative, come la Legge sull'IA dell'UE E la Ordine esecutivo del 2023 sulla sicurezza dell'IA, stanno entrando in vigore: i team di sicurezza devono fare della protezione delle applicazioni di intelligenza artificiale una priorità.

I 6 migliori strumenti di sicurezza AI open source

La scelta degli strumenti giusti è il modo migliore per rafforzare la tua posizione di sicurezza AI. Di seguito puoi conoscere alcuni degli strumenti di sicurezza AI open source più interessanti disponibili. Questi strumenti sono stati selezionati come ampiamente applicabili a una varietà di modelli e framework di intelligenza artificiale, ma esistono anche altri strumenti open source specializzati, come ad esempio Analisi del modello TensorFlowe vale la pena ricercare questi per soddisfare le esigenze specifiche della tua organizzazione. 

Quando valuti l'adozione di questi strumenti open source, tieni presente che potrebbero avere una manutenzione e un supporto limitati. La tua scelta più sicura è affidarti a fornitori di sicurezza di terze parti: puoi saperne di più Gestione della postura di sicurezza AI di Wiz alla fine dell'articolo.

  1. NB Difesa

  2. Toolbox per la robustezza avversaria

  3. Garak

  4. Misuratore di privacy

  5. Verifica AI

  6. Exploit dell'intelligenza artificiale

1. NB Difesa 

NB Difesa è un'estensione di JupyterLab e uno strumento CLI per la gestione delle vulnerabilità dell'intelligenza artificiale, offerto da Protect AI. 

Figure 1: View of NB Defense's contextual guidance (Source: nbdefense.ai)

JupyterLab è l'ambiente di sviluppo di modelli di intelligenza artificiale più utilizzato dai team di data science di tutto il mondo. Fornendo la gestione delle vulnerabilità direttamente all'origine dello sviluppo del modello, NB Defense consente ai team di incorporare la sicurezza nelle prime fasi del ciclo di vita del ML. Consente inoltre al personale non addetto alla sicurezza di introdurre direttamente controlli di sicurezza affidabili in modo semplice e facile da usare. 

  • Funzionalità principale: Rilevamento precoce delle vulnerabilità, dai segreti e dai dati PII alle vulnerabilità ed esposizioni comuni (CVE) e alle licenze di terze parti, fornendo una guida contestuale per i data scientist all'interno di JupyterLab e la scansione avanzata automatizzata dei repository per gli operatori della sicurezza 

Area d'intervento di MLSecOps: IA affidabile, tramite DevSecOps e analisi delle vulnerabilità

2. Toolbox per la robustezza avversaria 

La cassetta degli attrezzi per la robustezza avversaria (ART) è una libreria Python per la difesa ML contro le minacce avversarie, ospitata dall'IA Linux & Fondazione dati.

Figure 2: A Computer Vision adversarial patch with ART (Source: github.com/Trusted-AI/adversarial-robustness-toolbox)

L'intelligenza artificiale può offrire molte strade diverse per gli attori avversari, dall'estrazione dei dati degli utenti alla creazione di deep fake o alla diffusione di disinformazione. ART è stato creato pensando sia agli sviluppatori che ai ricercatori: la libreria supporta la valutazione di un'ampia varietà di modelli e applicazioni sviluppati su tutti i tipi di dati e la loro difesa dalle minacce avversarie più comuni all'IA. 

  • Funzionalità principale: Si difende dagli attacchi avversari di evasione, avvelenamento, inferenza ed estrazione attraverso un ampio catalogo di attacchi, stimatori, difese, valutazioni e metriche predefiniti

  • Area d'intervento di MLSecOps: Apprendimento automatico avversario, tramite Squadra rossa e blu

Scatola sciocca e CleverHans ci sono due librerie simili ad ART che vale la pena dare un'occhiata. 

3. Garak 

Garak è un pacchetto Python per la scansione delle vulnerabilità di modelli linguistici di grandi dimensioni (LLM), creato da Leon Derczynski. 

Figure 3: A vulnerability scan of ChatGPT by Garak (Source: github.com/leondz/garak)

La nuova ondata di adozione dell'IA è iniziata con la commercializzazione di LLM come ChatGPT. Gli LLM vengono rapidamente adottati da molte organizzazioni per sbloccare il potenziale aziendale, spesso tramite integrazioni di terze parti. Garak offre la possibilità di scansionare tutti gli LLM più popolari, da OpenAI a HuggingFace e LangChain, per garantirne la sicurezza.

  • Funzionalità principale: Fornisce scanner di vulnerabilità predefiniti per gli LLM per sondare allucinazioni, disinformazione, linguaggio dannoso, jailbreak, vulnerabilità a vari tipi di Iniezione rapidae altro ancora 

  • Area d'intervento di MLSecOps: Apprendimento automatico avversario, tramite analisi di vulnerabilità di LLM per il red teaming

4. Misuratore di privacy 

Misuratore di privacy è una libreria Python per verificare la privacy dei dati dei modelli ML, sviluppata dal NUS Data Privacy and Trustworthy Machine Learning Lab.

Figure 4: How to run an attack with Privacy Meter (Source: github.com/privacytrustlab/ml_privacy_meter/)

I modelli di intelligenza artificiale vengono addestrati su grandi quantità di dati. Perdita di dati di addestramento è una delle minacce più comuni e costose per i modelli di intelligenza artificiale. Privacy Meter fornisce un'analisi quantitativa dei rischi fondamentali per la privacy di (quasi) qualsiasi modello statistico e di ML, raccolti in report pronti all'uso con informazioni dettagliate sui rischi individuali e aggregati dei record di dati. I punteggi di privacy consentono di identificare facilmente i record di dati di training ad alto rischio di perdita attraverso i parametri del modello o le previsioni. 

  • Funzionalità principale: Esegue attacchi di inferenza di appartenenza all'avanguardia, personalizzabili tramite riquadri di configurazione per utilizzare una varietà di giochi, algoritmi e segnali predefiniti per la privacy 

  • Area d'intervento di MLSecOps: Intelligenza artificiale affidabile, attraverso la valutazione dei rischi, in particolare nell'ambito del processo di valutazione dell'impatto sulla protezione dei dati 

5. Verifica AI

Verifica AI è una libreria Python per i test di bias ML, offerta da pymetrics.

Figure 5: Bias analysis against gender discrimination with Audit AI (Source: github.com/pymetrics/audit-ai/)

I modelli di intelligenza artificiale apprendono dai modelli forniti nei dati di addestramento e possono perpetuare i pregiudizi e le discriminazioni presenti al loro interno. Audit AI fornisce modi per misurare i bias per i modelli statistici e ML tramite un pacchetto di facile utilizzo basato su due librerie con cui i data scientist hanno molta familiarità: pandas e sklearn. I data scientist possono utilizzare i risultati delle distorsioni forniti da Audit AI per promuovere le modifiche nella pipeline di sviluppo del modello in grado di mitigare le distorsioni. 

  • Funzionalità principale: Fornisce implementazioni di test di distorsione e tecniche di controllo degli algoritmi per attività di classificazione e regressione, come lo z-test di Fisher e il fattore di Bayes

  • Area d'intervento di MLSecOps: Intelligenza artificiale affidabile, tramite test e audit manuali

6. Exploit dell'intelligenza artificiale 

Exploit dell'intelligenza artificiale è una raccolta di exploit e modelli di scansione per le vulnerabilità del mondo reale, gestita da Protect AI. 

Figure 6: Public vulnerabilities listed on Huntr (Source: huntr.com)

I team di sicurezza possono estendere le competenze di intelligenza artificiale fornite dalle PMI interne testando le applicazioni di intelligenza artificiale rispetto agli exploit raccolti in ai-exploits. Basata sulla ricerca condotta da Protect AI e sulle vulnerabilità scoperte sulla piattaforma Huntr Bug Bounty, questa raccolta di exploit del mondo reale mira ad aiutarti a proteggere i tuoi attuali sistemi di intelligenza artificiale. AI-Exploits ti aiuta anche a controllare i fornitori di terze parti.

  • Funzionalità principale: Esegue la scansione di una varietà di vulnerabilità tramite strumenti predefiniti. Ogni strumento è composto da moduli per sfruttare la vulnerabilità e modelli per eseguire automaticamente la scansione della vulnerabilità. Attualmente supporta solo H2O, MLflow e Ray per l'esecuzione di codice remoto, l'inclusione di file locali, le scritture di file arbitrarie, la falsificazione di richieste tra siti e la contraffazione di richieste lato server.

  • Area d'intervento di MLSecOps: Vulnerabilità della supply chain e apprendimento automatico avversario, tramite scansione delle vulnerabilità e red teaming

Aumenta la sicurezza della tua intelligenza artificiale con Wiz

Per le tue applicazioni di intelligenza artificiale native per il cloud, puoi fare affidamento su Di Wiz Gestione della postura di sicurezza dell'AI (AI-SPM) per proteggere le tue applicazioni di intelligenza artificiale. 

Figure 7: The AI Security Dashboard offered as part of Wiz’s AI-SPM

AI-SPM offre una visibilità completa delle pipeline di intelligenza artificiale rilevando e documentando automaticamente i servizi e le tecnologie di intelligenza artificiale per produrre una distinta base di intelligenza artificiale, proteggendoti da ombra AI. AI-SPM applica inoltre linee di base di configurazione sicure con regole integrate in grado di rilevare configurazioni errate nei servizi di intelligenza artificiale e nell'IaC e consente di scoprire e rimuovere in modo proattivo i percorsi di attacco critici relativi ai modelli di intelligenza artificiale e ai dati di addestramento con un'accurata definizione delle priorità dei rischi.

Con Wiz, puoi fare affidamento su un'infrastruttura e servizi gestiti all'avanguardia per la tua sicurezza AI, che possono aiutarti a configurare un forte livello di sicurezza per le tue pipeline AI, fin da ora. Per saperne di più, visita il sito Pagina web di Wiz per l'intelligenza artificiale. Se preferisci un Demo dal vivo, ci piacerebbe entrare in contatto con te.

Develop AI Applications Securely

Learn why CISOs at the fastest growing companies choose Wiz to secure their organization's AI infrastructure.

Richiedi una demo