NIST: Profilo sull’IA generativa (AI 600-1) e Quadro di riferimento per la gestione dei rischi dell’IA (AI RMF) [IT]
Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.
Abbiamo fornito il nostro contributo ai quadri di riferimento dell’Istituto Nazionale di Standard e Tecnologia (NIST): «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale: Profilo sull’intelligenza artificiale generativa» (NIST AI 600-1).
Il NIST AI 600-1 è una risorsa complementare al Quadro di riferimento per la gestione dei rischi dell’IA del NIST (AI RMF), specificamente incentrata sull’IA generativa (GAI). Il suo obiettivo è aiutare le organizzazioni a identificare, gestire e mitigare i rischi specifici associati alla GAI, quali vulnerabilità di sicurezza informatica, disinformazione e questioni etiche. Il documento delinea 12 rischi chiave e fornisce oltre 200 azioni che gli sviluppatori possono intraprendere per affrontarli, mappate all’AI RMF.
Correlati
PCAST: Gruppo di lavoro sull’IA generativa (aggiornato)
OCSE: Quadro di rendicontazione del Processo G7 di Hiroshima sull’IA (HAIP)
OMS: linee guida sui modelli multimodali di grandi dimensioni
Quadro di riferimento per la gestione dei rischi dell’IA del NIST (AI RMF 1.0)
Il Quadro di riferimento per la gestione dei rischi dell’IA del NIST (AI RMF 1.0), pubblicato il 26 gennaio 2023, fornisce linee guida volontarie per incorporare considerazioni di affidabilità nella progettazione, nello sviluppo, nell’uso e nella valutazione dei sistemi di IA. Sviluppato attraverso processi basati sul consenso che hanno coinvolto oltre 240 organizzazioni provenienti dal settore privato, dal mondo accademico, dalla società civile e dai governi nell’arco di 18 mesi, il quadro stabilisce approcci sistematici per la gestione dei rischi associati all’IA per gli individui, le organizzazioni e la società.
Il quadro opera attraverso quattro funzioni principali che affrontano fasi distinte della gestione del ciclo di vita dell’IA. La funzione GOVERN si applica a tutti i processi organizzativi di gestione dei rischi legati all’IA, definendo politiche, procedure e strutture organizzative per la governance dell’IA. Le funzioni MAP, MEASURE e MANAGE si concentrano su contesti specifici dei sistemi e sulle fasi del ciclo di vita, fornendo linee guida operative per l’identificazione dei rischi, la valutazione e le strategie di mitigazione.
Struttura del quadro di riferimento:
GOVERN: politiche e procedure organizzative per la gestione dei rischi legati all’IA
MAP:identificazione dei rischi e definizione del contesto per i sistemi di IA
MEASURE: metodologie di valutazione delle prestazioni e dell’affidabilità
MANAGE: definizione delle priorità di rischio e strategie di attuazione della mitigazione
Il quadro incorpora meccanismi di flessibilità che consentono l’adattamento alla scala organizzativa, ai casi d’uso e ai profili di rischio, privilegiando approcci di soft power rispetto a mandati normativi. Il NIST prevede una revisione formale entro il 2028, con la potenziale produzione della versione 2.0, e aggiornamenti semestrali che integrano il feedback della comunità attraverso processi di sviluppo iterativi.
Profilo dell’IA generativa (NIST AI 600-1)
Pubblicato il 26 luglio 2024, il NIST AI 600-1 funge da risorsa complementare intersettoriale all’AI RMF, affrontando specificamente i sistemi di intelligenza artificiale generativa ai sensi dell’Ordine Esecutivo 14110 del Presidente Biden. La guida si concentra su un elenco di 12 rischi e oltre 200 azioni suggerite che gli sviluppatori e altri attori dell’IA possono intraprendere per gestirli, fornendo indicazioni specializzate alle organizzazioni che gestiscono tecnologie di IA generativa in tutti i settori industriali.
I 12 rischi includono una minore barriera all’ingresso per gli attacchi informatici, la produzione di disinformazione o di contenuti di incitamento all’odio e altri contenuti dannosi, e sistemi di IA generativa che producono output imprecisi o fuorvianti — un fenomeno denominato «confabulazione». Il profilo affronta preoccupazioni tecniche, operative e sociali che spaziano dalle vulnerabilità della sicurezza informatica alle sfide relative all’autenticità dei contenuti, con azioni mappate direttamente sulla struttura del quadro AI RMF.
Principali categorie di rischio dell’IA generativa:
Barriere agli attacchi informatici e vulnerabilità
Confabulazione (allucinazioni) che produce contenuti falsi o fuorvianti
Generazione ed esposizione di contenuti pericolosi, violenti o di incitamento all’odio
Impatti sulla privacy dei dati attraverso la divulgazione non autorizzata o la deanonimizzazione
Bias pregiudizievoli e omogeneizzazione derivanti da dati di addestramento non rappresentativi
Sfide di configurazione uomo-IA che influenzano l’affidabilità del sistema
Violazioni della proprietà intellettuale e riproduzione non autorizzata di contenuti
Compromissione dell’integrità delle informazioni con impatti sui processi decisionali
Rischi legati alla generazione di contenuti osceni, degradanti o offensivi
Impatti sulla sostenibilità ambientale derivanti dal consumo di risorse computazionali
Vulnerabilità nell’integrazione della catena del valore nelle fasi di sviluppo e implementazione
Lacune nella sicurezza delle informazioni relative alla protezione dei modelli e alla gestione dei dati
Il profilo pone l’accento sulle metodologie di valutazione del rischio, sui requisiti di test continui e sull’integrazione del feedback di molteplici portatori di interessi durante i processi di sviluppo e implementazione. Dopo aver descritto ciascun rischio, il documento presenta una matrice di azioni suggerite che gli attori dell’IA possono intraprendere per mitigarlo, mappate all’AI RMF.
Quadri di sicurezza NIST correlati
Integrazione dei controlli di sicurezza NIST SP 800-53
La Revisione 5 della NIST SP 800-53 fornisce controlli completi di sicurezza e privacy per i sistemi informativi federali, organizzando le misure di protezione in 20 famiglie di controlli suddivise in livelli di impatto basso, moderato e alto. Il quadro affronta i requisiti di controllo degli accessi, audit e responsabilità, gestione della configurazione, risposta agli incidenti e protezione delle comunicazioni di sistema, applicabili alle implementazioni di sicurezza dei sistemi di IA.
Le implementazioni dei sistemi di IA richiedono l’integrazione con controlli di sicurezza informatica consolidati che affrontino le caratteristiche peculiari dei sistemi di apprendimento automatico. Le famiglie di controlli comprendono la sicurezza del personale, la protezione fisica e ambientale, le strategie di pianificazione, la gestione dei programmi, la valutazione dei rischi e i processi di autorizzazione della valutazione della sicurezza. Le organizzazioni che implementano sistemi di IA devono allineare la gestione del rischio algoritmico alle strutture tradizionali di controllo della sicurezza delle informazioni.
Estensioni del Quadro per lo sviluppo sicuro del software
La Pubblicazione Speciale 800-218A del NIST integra il Quadro per lo sviluppo sicuro del software (SSDF) specificamente per lo sviluppo di modelli di IA, affrontando sfide peculiari tra cui l’impatto dei dati di addestramento malevoli e i confini sfumati tra codice di sistema e dati. La risorsa complementare sostiene i requisiti dell’Ordine Esecutivo 14110 per l’IA generativa sicura e le pratiche di sviluppo di modelli di fondazione a duplice uso.
Il quadro raccomanda misure di sicurezza a livello organizzativo, di modello e di programmazione software, stabilendo sistemi robusti di valutazione delle vulnerabilità e di risposta che affrontano l’integrità dei dati di addestramento e la sicurezza dei modelli durante i cicli di vita dello sviluppo.
Metriche di implementazione e integrazione degli standard
Il profilo di IA generativa fornisce 211 azioni specifiche in 12 categorie di rischio, consentendo un’implementazione personalizzata in base ai requisiti organizzativi e alla tolleranza al rischio. L’AI RMF Playbook fornisce indicazioni operative aggiornate circa due volte all’anno attraverso il feedback della comunità, supportando l’adozione del quadro in diversi contesti operativi, con i commenti esaminati e integrati su base semestrale.
Tra i recenti sviluppi figura il lavoro del Consorzio dell’U.S. AI Safety Institute sugli approcci di rendicontazione volontaria, con risultati chiave su come le organizzazioni possano condividere i dati di gestione del rischio attraverso un Modello di Rendicontazione Volontaria (VRT) per il Profilo di IA Generativa del Quadro di Gestione del Rischio IA del NIST. Il consorzio comprende più di 290 aziende e organizzazioni membri che operano in cinque aree chiave, tra cui la gestione del rischio dell’IA generativa, i contenuti sintetici, le valutazioni, il red-teaming e la sicurezza dei modelli.
Il NIST coordina l’allineamento con gli standard internazionali, tra cui ISO/IEC 5338, ISO/IEC 38507, ISO/IEC 22989, ISO/IEC 24028, ISO/IEC 42001 e ISO/IEC 42005, attraverso il coordinamento federale degli standard sull’IA. Le priorità di sviluppo future mirano alla configurazione uomo-IA, alle metodologie di spiegabilità e agli approcci di misurazione dell’efficacia del quadro, comprendendo lo sviluppo di casi di studio e risorse di implementazione specifiche per settore.
L’ecosistema del quadro IA del NIST stabilisce un’infrastruttura di gestione sistematica dei rischi in contesti organizzativi diversi, fornendo approcci di governance tecnologica scalabili pur mantenendo una flessibilità di implementazione a sostegno dell’innovazione.
• • •
Riferimenti
¹ Istituto Nazionale di Standard e Tecnologia. «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale (AI RMF 1.0).» NIST AI 100-1. 26 gennaio 2023.
² Istituto Nazionale di Standard e Tecnologia. «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale: Profilo dell’intelligenza artificiale generativa (AI 600-1).» NIST AI 600-1. 26 luglio 2024.
³ Istituto Nazionale di Standard e Tecnologia. «Controlli di sicurezza e privacy per sistemi informativi e organizzazioni.» Pubblicazione Speciale NIST 800-53, Revisione 5. Settembre 2020.
⁴ Istituto Nazionale di Standard e Tecnologia. «Quadro per lo sviluppo sicuro del software (SSDF) Versione 1.1: raccomandazioni per mitigare il rischio di vulnerabilità del software.» Pubblicazione Speciale NIST 800-218A. Febbraio 2024.
⁵ Istituto Nazionale di Standard e Tecnologia. «AI RMF Playbook.» 2024.
⁶ Consorzio dell’U.S. AI Safety Institute. «Modello di rendicontazione volontaria per il Profilo di IA Generativa del Quadro di Gestione del Rischio IA del NIST.» 2025.
⁷ Organizzazione internazionale per la normazione. «ISO/IEC 42001: Tecnologia dell’informazione — Intelligenza artificiale — Sistema di gestione.» 2023.
⁸ Organizzazione internazionale per la normazione. «ISO/IEC 22989: Tecnologia dell’informazione — Intelligenza artificiale — Concetti e terminologia.» 2022.
⁹ Organizzazione internazionale per la normazione. «ISO/IEC 24028: Tecnologia dell’informazione — Intelligenza artificiale — Panoramica sull’affidabilità nell’intelligenza artificiale.» 2021.