La Dichiarazione di Bletchley e la sicurezza dell’IA [IT]
Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.
Abbiamo contribuito al bando aperto e al dibattito pubblico sulla Dichiarazione di Bletchley, che mira ad ampliare ulteriormente la prospettiva delle diverse parti interessate sulla sicurezza dell’IA, presentando casi e scenari relativi alle infrastrutture pubbliche e critiche, nonché ai settori della sanità, dell’istruzione e delle tecnologie assistive e di accessibilità.
La Dichiarazione di Bletchley è un accordo internazionale di riferimento firmato il 1° novembre 2023, durante il Vertice sulla sicurezza dell’IA tenutosi a Bletchley Park, nel Regno Unito. Approvata da 28 paesi — tra cui Stati Uniti, Cina e membri dell’Unione Europea — nonché dalla stessa UE, la dichiarazione stabilisce un impegno condiviso per lo sviluppo sicuro e responsabile dell’intelligenza artificiale (IA), con particolare attenzione ai sistemi di «IA di frontiera», ovvero modelli generici ad alta capacità con impatti sociali potenzialmente significativi.
Correlati
La Dichiarazione di Seul e gli impegni sulla sicurezza dell’IA di frontiera
Il Patto sull’IA e i prossimi passi per l’attuazione dell’AI Act: accesso e sistemi pubblici
Codice di buone pratiche per l’IA a uso generale (Gruppi di lavoro 2 e 3)
I principi e gli obiettivi della Dichiarazione
IA incentrata sull’uomo e responsabile: La dichiarazione sottolinea che l’IA dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, incentrato sull’uomo, affidabile e responsabile.
Riconoscimento dei rischi: Si riconosce il potenziale di danni gravi, persino catastrofici, derivanti dalle capacità più significative dei modelli di IA di frontiera, sia attraverso un uso improprio intenzionale sia attraverso conseguenze non previste.
Cooperazione internazionale: I firmatari concordano che questi rischi possano essere affrontati al meglio attraverso la collaborazione internazionale, con l’obiettivo di costruire una comprensione condivisa, scientifica e basata su dati concreti, dei rischi dell’IA, e di sviluppare politiche basate sul rischio per garantire la sicurezza.
Equilibrio tra innovazione e regolamentazione: La dichiarazione sottolinea l’importanza di un approccio di governance e regolamentazione favorevole all’innovazione e proporzionato, che massimizzi i benefici dell’IA affrontando al contempo i rischi associati.
Dibattito pubblico
Attraverso la lente dei sistemi pubblici e delle infrastrutture critiche, abbiamo evidenziato:
Scenari e rilevanza: Sottolineare l’importanza di concentrarsi su casi d’uso e applicazioni reali dell’IA, come illustrato dai nostri contributi agli archivi dell’OCSE sugli strumenti di sicurezza e sugli incidenti dell’IA. La sicurezza e la governance dell’IA devono fondarsi su esperienze vissute e implementazioni concrete.
Accesso aperto e trasparenza: Promuovere l’accesso aperto agli archivi delle tecnologie pubbliche e assistive, includendo non solo le applicazioni ma anche i modelli e le infrastrutture sottostanti. Il nostro contributo all’archivio OCSE sulle tecnologie assistive riflette questo impegno per l’accessibilità e la trasparenza.
Valutazioni dei rischi: Richiedere valutazioni dei rischi complete e inclusive che prendano esplicitamente in considerazione minori, pazienti, caregiver e altre popolazioni vulnerabili — gruppi spesso trascurati negli attuali quadri normativi.
Contesto geografico e socioeconomico: Sottolineare l’importanza di considerare i modelli socioeconomici e i contesti storici nelle diverse regioni nella fase di implementazione e valutazione dei sistemi di IA, al fine di garantire una governance rilevante a livello globale.
Considerazioni su software e hardware nei modelli di frontiera: Raccomandare un approccio olistico alla valutazione dei modelli di IA di frontiera — quali i modelli linguistici di grandi dimensioni (LLM), i modelli visione-linguaggio (VLM) e i modelli di fondazione 3D — includendo gli ecosistemi hardware di supporto, tra cui sensori e interfacce aptiche utilizzati nelle infrastrutture pubbliche e assistive.
Ambienti di addestramento e sandbox normativi: Sostenere lo sviluppo di ambienti di addestramento interdisciplinari e realistici che integrino componenti software e hardware. Questi dovrebbero comprendere banchi di prova e sandbox normativi per sviluppare, testare e validare in sicurezza i sistemi di IA in condizioni controllate ma realistiche.
Standard di accessibilità multimodale: Proporre l’implementazione di sistemi di notifica e comunicazione standardizzati e multimodali (ad es. segnali uditivi, visivi, aptici e testuali semplificati) per garantire che i sistemi di IA siano accessibili agli utenti con disabilità sensoriali o cognitive.
Supervisione umana e responsabilità: Raccomandare protocolli di supervisione umana a cascata per le tecnologie assistive basate sull’IA, in particolare quelle che influenzano l’autonomia o le decisioni critiche. Ciò include processi di verifica multilivello tra le parti interessate per garantire affidabilità e sicurezza.
Banchi di prova in ambienti critici: Incoraggiare la creazione di banchi di prova specifici per settore che riproducano contesti di servizi essenziali — quali ospedali, scuole e strutture per l’invecchiamento in loco — per valutare gli impatti reali su accesso, qualità del servizio e autonomia degli utenti.
Accesso alla ricerca per la società civile: Promuovere quadri di accesso alla ricerca sicuri e trasparenti che consentano alle organizzazioni della società civile e ai ricercatori indipendenti di studiare i sistemi di IA in scenari reali, con protezioni specifiche per gli utenti vulnerabili.
Firmando la lettera aperta della Dichiarazione di Bletchley, ribadiamo il nostro impegno a rafforzare il dialogo globale sulla sicurezza e l’accessibilità dell’IA attraverso una pluralità di approcci complementari. Sosteniamo l’armonizzazione dei quadri di governance emergenti — quali il Quadro di gestione dei rischi dell’IA del NIST, gli standard ISO/IEC e l’AI Act dell’UE — sottolineando al contempo che una supervisione efficace deve integrare le prospettive e le metodologie di tutte le parti interessate. Collegando gli standard tecnici a una progettazione incentrata sull’uomo e integrando l’accessibilità lungo l’intero ciclo di vita dell’IA, possiamo garantire che i modelli di frontiera non solo mitighino i rischi, ma amplino attivamente le capacità di coloro che più necessitano di tecnologie assistive. Questo approccio integrato è essenziale per garantire che l’IA promuova la dignità umana, l’autonomia e l’accesso in ogni comunità e contesto.
• • •
Riferimenti
¹ Governo del Regno Unito. «La Dichiarazione di Bletchley dei Paesi partecipanti al Vertice sulla sicurezza dell’IA, 1–2 novembre 2023.» GOV.UK. 1 novembre 2023.
² Governo del Regno Unito. «Sintesi del presidente del Vertice sulla sicurezza dell’IA 2023, Bletchley Park.» GOV.UK. 2 novembre 2023.
³ NIST. «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale (AI RMF 1.0).» NIST AI.100-1. Istituto Nazionale di Standard e Tecnologia. 26 gennaio 2023.
⁴ Organizzazione internazionale per la standardizzazione. «ISO/IEC 23894:2023 — Tecnologia dell’informazione — Intelligenza artificiale — Linee guida sulla gestione dei rischi.» 2023.
⁵ OECD.AI. «AI Incidents Monitor (AIM) — Piattaforma globale sugli incidenti e i rischi legati all’intelligenza artificiale.» 2023.
⁶ OCSE. «Definizione degli incidenti legati all’intelligenza artificiale e dei termini correlati.» Organizzazione per la cooperazione e lo sviluppo economico. 2024.