NIST: Profilo sull’IA generativa (AI 600-1) e Quadro di riferimento per la gestione dei rischi dell’IA (AI RMF) [IT]

Disponibile in : EN,IT

Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.

Abbiamo fornito il nostro contributo ai quadri di riferimento dell’Istituto Nazionale di Standard e Tecnologia (NIST): «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale: Profilo sull’intelligenza artificiale generativa» (NIST AI 600-1).

Il NIST AI 600-1 è una risorsa complementare al Quadro di riferimento per la gestione dei rischi dell’IA del NIST (AI RMF), specificamente incentrata sull’IA generativa (GAI). Il suo obiettivo è aiutare le organizzazioni a identificare, gestire e mitigare i rischi specifici associati alla GAI, quali vulnerabilità di sicurezza informatica, disinformazione e questioni etiche. Il documento delinea 12 rischi chiave e fornisce oltre 200 azioni che gli sviluppatori possono intraprendere per affrontarli, mappate all’AI RMF.

Correlati

Quadro di riferimento per la gestione dei rischi dell’IA del NIST (AI RMF 1.0)

Il Quadro di riferimento per la gestione dei rischi dell’IA del NIST (AI RMF 1.0), pubblicato il 26 gennaio 2023, fornisce linee guida volontarie per incorporare considerazioni di affidabilità nella progettazione, nello sviluppo, nell’uso e nella valutazione dei sistemi di IA. Sviluppato attraverso processi basati sul consenso che hanno coinvolto oltre 240 organizzazioni provenienti dal settore privato, dal mondo accademico, dalla società civile e dai governi nell’arco di 18 mesi, il quadro stabilisce approcci sistematici per la gestione dei rischi associati all’IA per gli individui, le organizzazioni e la società.

Il quadro opera attraverso quattro funzioni principali che affrontano fasi distinte della gestione del ciclo di vita dell’IA. La funzione GOVERN si applica a tutti i processi organizzativi di gestione dei rischi legati all’IA, definendo politiche, procedure e strutture organizzative per la governance dell’IA. Le funzioni MAP, MEASURE e MANAGE si concentrano su contesti specifici dei sistemi e sulle fasi del ciclo di vita, fornendo linee guida operative per l’identificazione dei rischi, la valutazione e le strategie di mitigazione.

Struttura del quadro di riferimento:

  • GOVERN: politiche e procedure organizzative per la gestione dei rischi legati all’IA

  • MAP:identificazione dei rischi e definizione del contesto per i sistemi di IA

  • MEASURE: metodologie di valutazione delle prestazioni e dell’affidabilità

  • MANAGE: definizione delle priorità di rischio e strategie di attuazione della mitigazione

Il quadro incorpora meccanismi di flessibilità che consentono l’adattamento alla scala organizzativa, ai casi d’uso e ai profili di rischio, privilegiando approcci di soft power rispetto a mandati normativi. Il NIST prevede una revisione formale entro il 2028, con la potenziale produzione della versione 2.0, e aggiornamenti semestrali che integrano il feedback della comunità attraverso processi di sviluppo iterativi.

Profilo dell’IA generativa (NIST AI 600-1)

Pubblicato il 26 luglio 2024, il NIST AI 600-1 funge da risorsa complementare intersettoriale all’AI RMF, affrontando specificamente i sistemi di intelligenza artificiale generativa ai sensi dell’Ordine Esecutivo 14110 del Presidente Biden. La guida si concentra su un elenco di 12 rischi e oltre 200 azioni suggerite che gli sviluppatori e altri attori dell’IA possono intraprendere per gestirli, fornendo indicazioni specializzate alle organizzazioni che gestiscono tecnologie di IA generativa in tutti i settori industriali.

I 12 rischi includono una minore barriera all’ingresso per gli attacchi informatici, la produzione di disinformazione o di contenuti di incitamento all’odio e altri contenuti dannosi, e sistemi di IA generativa che producono output imprecisi o fuorvianti — un fenomeno denominato «confabulazione». Il profilo affronta preoccupazioni tecniche, operative e sociali che spaziano dalle vulnerabilità della sicurezza informatica alle sfide relative all’autenticità dei contenuti, con azioni mappate direttamente sulla struttura del quadro AI RMF.

Principali categorie di rischio dell’IA generativa:

  • Barriere agli attacchi informatici e vulnerabilità

  • Confabulazione (allucinazioni) che produce contenuti falsi o fuorvianti

  • Generazione ed esposizione di contenuti pericolosi, violenti o di incitamento all’odio

  • Impatti sulla privacy dei dati attraverso la divulgazione non autorizzata o la deanonimizzazione

  • Bias pregiudizievoli e omogeneizzazione derivanti da dati di addestramento non rappresentativi

  • Sfide di configurazione uomo-IA che influenzano l’affidabilità del sistema

  • Violazioni della proprietà intellettuale e riproduzione non autorizzata di contenuti

  • Compromissione dell’integrità delle informazioni con impatti sui processi decisionali

  • Rischi legati alla generazione di contenuti osceni, degradanti o offensivi

  • Impatti sulla sostenibilità ambientale derivanti dal consumo di risorse computazionali

  • Vulnerabilità nell’integrazione della catena del valore nelle fasi di sviluppo e implementazione

  • Lacune nella sicurezza delle informazioni relative alla protezione dei modelli e alla gestione dei dati

Il profilo pone l’accento sulle metodologie di valutazione del rischio, sui requisiti di test continui e sull’integrazione del feedback di molteplici portatori di interessi durante i processi di sviluppo e implementazione. Dopo aver descritto ciascun rischio, il documento presenta una matrice di azioni suggerite che gli attori dell’IA possono intraprendere per mitigarlo, mappate all’AI RMF.

Quadri di sicurezza NIST correlati

Integrazione dei controlli di sicurezza NIST SP 800-53

La Revisione 5 della NIST SP 800-53 fornisce controlli completi di sicurezza e privacy per i sistemi informativi federali, organizzando le misure di protezione in 20 famiglie di controlli suddivise in livelli di impatto basso, moderato e alto. Il quadro affronta i requisiti di controllo degli accessi, audit e responsabilità, gestione della configurazione, risposta agli incidenti e protezione delle comunicazioni di sistema, applicabili alle implementazioni di sicurezza dei sistemi di IA.

Le implementazioni dei sistemi di IA richiedono l’integrazione con controlli di sicurezza informatica consolidati che affrontino le caratteristiche peculiari dei sistemi di apprendimento automatico. Le famiglie di controlli comprendono la sicurezza del personale, la protezione fisica e ambientale, le strategie di pianificazione, la gestione dei programmi, la valutazione dei rischi e i processi di autorizzazione della valutazione della sicurezza. Le organizzazioni che implementano sistemi di IA devono allineare la gestione del rischio algoritmico alle strutture tradizionali di controllo della sicurezza delle informazioni.

Estensioni del Quadro per lo sviluppo sicuro del software

La Pubblicazione Speciale 800-218A del NIST integra il Quadro per lo sviluppo sicuro del software (SSDF) specificamente per lo sviluppo di modelli di IA, affrontando sfide peculiari tra cui l’impatto dei dati di addestramento malevoli e i confini sfumati tra codice di sistema e dati. La risorsa complementare sostiene i requisiti dell’Ordine Esecutivo 14110 per l’IA generativa sicura e le pratiche di sviluppo di modelli di fondazione a duplice uso.

Il quadro raccomanda misure di sicurezza a livello organizzativo, di modello e di programmazione software, stabilendo sistemi robusti di valutazione delle vulnerabilità e di risposta che affrontano l’integrità dei dati di addestramento e la sicurezza dei modelli durante i cicli di vita dello sviluppo.

Metriche di implementazione e integrazione degli standard

Il profilo di IA generativa fornisce 211 azioni specifiche in 12 categorie di rischio, consentendo un’implementazione personalizzata in base ai requisiti organizzativi e alla tolleranza al rischio. L’AI RMF Playbook fornisce indicazioni operative aggiornate circa due volte all’anno attraverso il feedback della comunità, supportando l’adozione del quadro in diversi contesti operativi, con i commenti esaminati e integrati su base semestrale.

Tra i recenti sviluppi figura il lavoro del Consorzio dell’U.S. AI Safety Institute sugli approcci di rendicontazione volontaria, con risultati chiave su come le organizzazioni possano condividere i dati di gestione del rischio attraverso un Modello di Rendicontazione Volontaria (VRT) per il Profilo di IA Generativa del Quadro di Gestione del Rischio IA del NIST. Il consorzio comprende più di 290 aziende e organizzazioni membri che operano in cinque aree chiave, tra cui la gestione del rischio dell’IA generativa, i contenuti sintetici, le valutazioni, il red-teaming e la sicurezza dei modelli.

Il NIST coordina l’allineamento con gli standard internazionali, tra cui ISO/IEC 5338, ISO/IEC 38507, ISO/IEC 22989, ISO/IEC 24028, ISO/IEC 42001 e ISO/IEC 42005, attraverso il coordinamento federale degli standard sull’IA. Le priorità di sviluppo future mirano alla configurazione uomo-IA, alle metodologie di spiegabilità e agli approcci di misurazione dell’efficacia del quadro, comprendendo lo sviluppo di casi di studio e risorse di implementazione specifiche per settore.

L’ecosistema del quadro IA del NIST stabilisce un’infrastruttura di gestione sistematica dei rischi in contesti organizzativi diversi, fornendo approcci di governance tecnologica scalabili pur mantenendo una flessibilità di implementazione a sostegno dell’innovazione.

• • •

Riferimenti

¹ Istituto Nazionale di Standard e Tecnologia. «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale (AI RMF 1.0).» NIST AI 100-1. 26 gennaio 2023.

² Istituto Nazionale di Standard e Tecnologia. «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale: Profilo dell’intelligenza artificiale generativa (AI 600-1).» NIST AI 600-1. 26 luglio 2024.

³ Istituto Nazionale di Standard e Tecnologia. «Controlli di sicurezza e privacy per sistemi informativi e organizzazioni.» Pubblicazione Speciale NIST 800-53, Revisione 5. Settembre 2020.

⁴ Istituto Nazionale di Standard e Tecnologia. «Quadro per lo sviluppo sicuro del software (SSDF) Versione 1.1: raccomandazioni per mitigare il rischio di vulnerabilità del software.» Pubblicazione Speciale NIST 800-218A. Febbraio 2024.

⁵ Istituto Nazionale di Standard e Tecnologia. «AI RMF Playbook.» 2024.

⁶ Consorzio dell’U.S. AI Safety Institute. «Modello di rendicontazione volontaria per il Profilo di IA Generativa del Quadro di Gestione del Rischio IA del NIST.» 2025.

⁷ Organizzazione internazionale per la normazione. «ISO/IEC 42001: Tecnologia dell’informazione — Intelligenza artificiale — Sistema di gestione.» 2023.

⁸ Organizzazione internazionale per la normazione. «ISO/IEC 22989: Tecnologia dell’informazione — Intelligenza artificiale — Concetti e terminologia.» 2022.

⁹ Organizzazione internazionale per la normazione. «ISO/IEC 24028: Tecnologia dell’informazione — Intelligenza artificiale — Panoramica sull’affidabilità nell’intelligenza artificiale.» 2021.