OCSE: Quadro di rendicontazione del Processo G7 di Hiroshima sull’IA (HAIP) [IT]

Disponibile in : EN,IT

Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.

Abbiamo fornito il nostro contributo al gruppo di lavoro e all’invito a partecipare al Quadro di rendicontazione (HAIP) del Processo G7 di Hiroshima sull’IA, sostenuto dall’OCSE (1). È stato presentato durante il Vertice sull’IA di Parigi, dove abbiamo illustrato alcune parti del MOOC dedicato all’IA incentrata sull’accessibilità, oltre ad aver partecipato a due relazioni e consultazioni pubbliche con il nostro contributo.

Questo Quadro di rendicontazione è il risultato diretto del Processo G7 di Hiroshima sull’IA, avviato sotto la presidenza giapponese del G7 nel 2023 e ulteriormente sviluppato sotto la presidenza italiana del G7 nel 2024. Si fonda sul Codice di condotta internazionale del Processo di Hiroshima sull’IA per le organizzazioni che sviluppano sistemi avanzati di IA, un’iniziativa fondamentale per promuovere la trasparenza e la responsabilità nello sviluppo di sistemi avanzati di IA. Su richiesta del G7, e in linea con la Dichiarazione di Trento, l’OCSE è stata incaricata di individuare meccanismi per monitorare l’adozione volontaria del Codice.

Correlati

Il Processo G7 di Hiroshima sull’IA

Il Processo di Hiroshima sull’IA risponde alla necessità di definire principi e pratiche comuni per la regolamentazione dei sistemi avanzati di IA, in particolare i modelli di fondazione e l’IA generativa. Il processo si fonda sui Principi OCSE sull’IA e mira a codificare pratiche basate sul rischio e allineate ai diritti umani nello sviluppo, nell’uso e nella diffusione dell’IA.

I Principi di Hiroshima comprendono 11 aree chiave che spaziano dalla mitigazione dei rischi nel ciclo di vita, al monitoraggio post-implementazione, alla trasparenza e ai controlli di sicurezza, fino all’uso responsabile dell’IA per sfide globali quali la salute, il clima e l’istruzione. Questi principi sono concepiti come un quadro dinamico e adattabile, sviluppato attraverso un ampio contributo dei portatori di interessi.

Il Quadro di rendicontazione HAIP

Il Quadro di rendicontazione HAIP è uno strumento di rendicontazione volontario progettato per aiutare le organizzazioni a documentare e divulgare le proprie misure di mitigazione del rischio, i protocolli di sicurezza, i meccanismi di governance e le pratiche di trasparenza.

Le caratteristiche principali del Quadro di rendicontazione HAIP includono:

  • Copertura completa dei domini di governance dell’IA, garantendo l’allineamento con le migliori pratiche internazionali.

  • Rendicontazione trasparente sulle capacità del sistema, i limiti e gli scenari di uso improprio.

  • Documentazione delle politiche di governance, della gestione dei dati e del monitoraggio degli incidenti post-commercializzazione.

  • Meccanismi per la provenienza e l’autenticazione dei contenuti, incluso l’uso di filigrane ove applicabile.

Dati di implementazione della fase pilota

La fase pilota, condotta dal 19 luglio al 6 settembre 2024, ha generato un feedback sostanziale da parte di molteplici portatori di interessi provenienti da 20 organizzazioni in 10 paesi: Canada, Danimarca, Germania, Israele, Giappone, Paesi Bassi, Spagna, Svizzera, Regno Unito e Stati Uniti. Le entità partecipanti spaziavano dalle grandi aziende tecnologiche alle start-up, comprendendo sviluppatori di sistemi di IA, multinazionali tecnologiche, istituti di ricerca, istituzioni accademiche e società di consulenza sulla conformità in materia di IA.

Sintesi dei risultati della fase pilota:

  • 14 organizzazioni hanno chiesto il consolidamento delle domande ripetitive per snellire i processi di rendicontazione

  • 13 organizzazioni hanno richiesto opzioni di formattazione avanzate, inclusi elenchi puntati e collegamenti ipertestuali

  • 12 organizzazioni hanno richiesto istruzioni più chiare per il sondaggio, con limiti di parole ed esempi

  • 9 intervistati hanno richiesto chiarimenti su termini chiave ambigui, tra cui «sistemi avanzati di IA», «rischi irragionevoli» e «incidenti significativi»

  • 6 organizzazioni hanno suggerito un migliore allineamento con i meccanismi di rendicontazione volontaria esistenti (Frontier AI Safety Commitments, White House AI Voluntary Commitments)

Principi di governance e requisiti tecnici

Il quadro impone una valutazione completa dei rischi lungo l’intero ciclo di vita dell’IA, richiedendo alle organizzazioni di attuare diverse misure di test interne ed esterne indipendenti, incluse le metodologie di red-teaming. Le specifiche tecniche prevedono solidi controlli di sicurezza che comprendono la sicurezza fisica, la sicurezza informatica e le misure di protezione dalle minacce interne per i pesi dei modelli, gli algoritmi, i server e i set di dati.

Impegni tecnici chiave:

  • Meccanismi di autenticazione e provenienza dei contenuti tramite tecniche di watermarking e identificazione

  • Sistemi di tracciabilità per set di dati, processi e decisioni di sviluppo

  • Rendicontazione trasparente per tutte le versioni significative di sistemi avanzati di IA

  • Protocolli di condivisione responsabile delle informazioni tra industria, governi, società civile e mondo accademico

  • Collaborazione per lo sviluppo di standard tecnici internazionali con le Organizzazioni per lo sviluppo di standard (SDO)

Quadro di mitigazione e monitoraggio dei rischi

Le organizzazioni devono definire politiche di governance basate sul rischio che comprendano misure di privacy e monitoraggio post-implementazione per l’identificazione delle vulnerabilità, l’analisi degli incidenti e il rilevamento di usi impropri. Il quadro vieta i sistemi di IA che minano i valori democratici, danneggiano le comunità, facilitano il terrorismo, consentono attività criminali o comportano rischi sostanziali per la sicurezza, in linea con il diritto internazionale dei diritti umani e i Principi guida delle Nazioni Unite su imprese e diritti umani.

Coordinamento internazionale e sviluppo di standard

L’iniziativa promuove standard tecnici internazionali attraverso l’OCSE, il Partenariato Globale sull’IA (GPAI) e la collaborazione tra molteplici portatori di interessi. Le giurisdizioni mantengono flessibilità nell’attuazione pur aderendo ai principi fondamentali di monitoraggio. Business at OECD (BIAC) sostiene il quadro per l’interoperabilità normativa, la collaborazione transfrontaliera e l’accesso trasparente alla tecnologia IA tra le giurisdizioni.

Protezione dei dati e sviluppo etico dell’IA

Il quadro richiede una gestione della qualità dei dati, inclusa la supervisione dei dati di addestramento per mitigare bias pregiudizievoli, con obblighi di trasparenza per i set di dati ai sensi dei quadri giuridici applicabili. Lo sviluppo prioritario affronta le sfide globali — crisi climatica, salute, istruzione — sostenendo gli Obiettivi di sviluppo sostenibile delle Nazioni Unite attraverso una gestione responsabile e incentrata sull’uomo dell’IA e il progresso dell’alfabetizzazione digitale.

Tempistica di attuazione e stato attuale

Il quadro operativo di rendicontazione è stato lanciato il 7 febbraio 2025, durante il Vertice sull’IA di Parigi, con la scadenza per la presentazione del primo ciclo di rendicontazione fissata al 15 aprile 2025 e la pubblicazione prevista per giugno 2025.

I principali sviluppatori di IA — tra cui Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce e Softbank Corp. — si sono impegnati a partecipare al quadro inaugurale. Le relazioni dovrebbero essere rese pubblicamente disponibili dall’OCSE tramite una piattaforma di trasparenza designata, ad esclusione di qualsiasi informazione commercialmente sensibile.

Il quadro complessivo rappresenta un consenso internazionale sulla governance avanzata dell’IA, stabilendo meccanismi di responsabilità misurabili pur mantenendo approcci favorevoli all’innovazione per lo sviluppo e la diffusione delle tecnologie emergenti in contesti organizzativi e quadri giurisdizionali diversi. Questa iniziativa dimostra come la cooperazione internazionale possa favorire il progresso nella governance dell’IA, creando aspettative standardizzate per le pratiche di trasparenza e gestione del rischio a livello globale.

• • •

Riferimenti

¹ Organizzazione per la cooperazione e lo sviluppo economico. «Processo G7 di Hiroshima sull’IA: Codice di condotta internazionale per le organizzazioni che sviluppano sistemi avanzati di IA.» OCSE. 2023.

² Organizzazione per la cooperazione e lo sviluppo economico. «HAIP: Quadro di rendicontazione del Processo di Hiroshima sull’IA.» OCSE. 2024.

³ G7 Italia. «Dichiarazione ministeriale sui risultati del Processo di Hiroshima sull’IA e del Dialogo di Trento.» Presidenza italiana del G7. 2024.

⁴ Osservatorio sulle politiche in materia di IA dell’OCSE. «Quadro dell’OCSE per la classificazione dei sistemi di IA.» OCSE. 2022.

⁵ Osservatorio sulle politiche in materia di IA dell’OCSE. «Principi OCSE sull’IA: Raccomandazione del Consiglio sull’intelligenza artificiale.» OCSE. 2019.

⁶ Organizzazione per la cooperazione e lo sviluppo economico. «Sintesi della fase pilota del Quadro di rendicontazione HAIP.» OCSE. 2025.