La Dichiarazione di Bletchley e la sicurezza dell’IA [IT]

Disponibile in : EN, IT

Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.

Abbiamo contribuito al bando aperto e al dibattito pubblico sulla Dichiarazione di Bletchley, che mira ad ampliare ulteriormente la prospettiva delle diverse parti interessate sulla sicurezza dell’IA, presentando casi e scenari relativi alle infrastrutture pubbliche e critiche, nonché ai settori della sanità, dell’istruzione e delle tecnologie assistive e di accessibilità.

La Dichiarazione di Bletchley è un accordo internazionale di riferimento firmato il 1° novembre 2023, durante il Vertice sulla sicurezza dell’IA tenutosi a Bletchley Park, nel Regno Unito. Approvata da 28 paesi — tra cui Stati Uniti, Cina e membri dell’Unione Europea — nonché dalla stessa UE, la dichiarazione stabilisce un impegno condiviso per lo sviluppo sicuro e responsabile dell’intelligenza artificiale (IA), con particolare attenzione ai sistemi di «IA di frontiera», ovvero modelli generici ad alta capacità con impatti sociali potenzialmente significativi.

Correlati

I principi e gli obiettivi della Dichiarazione

  • IA incentrata sull’uomo e responsabile: La dichiarazione sottolinea che l’IA dovrebbe essere progettata, sviluppata, implementata e utilizzata in modo sicuro, incentrato sull’uomo, affidabile e responsabile.

  • Riconoscimento dei rischi: Si riconosce il potenziale di danni gravi, persino catastrofici, derivanti dalle capacità più significative dei modelli di IA di frontiera, sia attraverso un uso improprio intenzionale sia attraverso conseguenze non previste.

  • Cooperazione internazionale: I firmatari concordano che questi rischi possano essere affrontati al meglio attraverso la collaborazione internazionale, con l’obiettivo di costruire una comprensione condivisa, scientifica e basata su dati concreti, dei rischi dell’IA, e di sviluppare politiche basate sul rischio per garantire la sicurezza.

  • Equilibrio tra innovazione e regolamentazione: La dichiarazione sottolinea l’importanza di un approccio di governance e regolamentazione favorevole all’innovazione e proporzionato, che massimizzi i benefici dell’IA affrontando al contempo i rischi associati.

Dibattito pubblico

Attraverso la lente dei sistemi pubblici e delle infrastrutture critiche, abbiamo evidenziato:

  • Scenari e rilevanza: Sottolineare l’importanza di concentrarsi su casi d’uso e applicazioni reali dell’IA, come illustrato dai nostri contributi agli archivi dell’OCSE sugli strumenti di sicurezza e sugli incidenti dell’IA. La sicurezza e la governance dell’IA devono fondarsi su esperienze vissute e implementazioni concrete.

  • Accesso aperto e trasparenza: Promuovere l’accesso aperto agli archivi delle tecnologie pubbliche e assistive, includendo non solo le applicazioni ma anche i modelli e le infrastrutture sottostanti. Il nostro contributo all’archivio OCSE sulle tecnologie assistive riflette questo impegno per l’accessibilità e la trasparenza.

  • Valutazioni dei rischi: Richiedere valutazioni dei rischi complete e inclusive che prendano esplicitamente in considerazione minori, pazienti, caregiver e altre popolazioni vulnerabili — gruppi spesso trascurati negli attuali quadri normativi.

  • Contesto geografico e socioeconomico: Sottolineare l’importanza di considerare i modelli socioeconomici e i contesti storici nelle diverse regioni nella fase di implementazione e valutazione dei sistemi di IA, al fine di garantire una governance rilevante a livello globale.

  • Considerazioni su software e hardware nei modelli di frontiera: Raccomandare un approccio olistico alla valutazione dei modelli di IA di frontiera — quali i modelli linguistici di grandi dimensioni (LLM), i modelli visione-linguaggio (VLM) e i modelli di fondazione 3D — includendo gli ecosistemi hardware di supporto, tra cui sensori e interfacce aptiche utilizzati nelle infrastrutture pubbliche e assistive.

  • Ambienti di addestramento e sandbox normativi: Sostenere lo sviluppo di ambienti di addestramento interdisciplinari e realistici che integrino componenti software e hardware. Questi dovrebbero comprendere banchi di prova e sandbox normativi per sviluppare, testare e validare in sicurezza i sistemi di IA in condizioni controllate ma realistiche.

  • Standard di accessibilità multimodale: Proporre l’implementazione di sistemi di notifica e comunicazione standardizzati e multimodali (ad es. segnali uditivi, visivi, aptici e testuali semplificati) per garantire che i sistemi di IA siano accessibili agli utenti con disabilità sensoriali o cognitive.

  • Supervisione umana e responsabilità: Raccomandare protocolli di supervisione umana a cascata per le tecnologie assistive basate sull’IA, in particolare quelle che influenzano l’autonomia o le decisioni critiche. Ciò include processi di verifica multilivello tra le parti interessate per garantire affidabilità e sicurezza.

  • Banchi di prova in ambienti critici: Incoraggiare la creazione di banchi di prova specifici per settore che riproducano contesti di servizi essenziali — quali ospedali, scuole e strutture per l’invecchiamento in loco — per valutare gli impatti reali su accesso, qualità del servizio e autonomia degli utenti.

  • Accesso alla ricerca per la società civile: Promuovere quadri di accesso alla ricerca sicuri e trasparenti che consentano alle organizzazioni della società civile e ai ricercatori indipendenti di studiare i sistemi di IA in scenari reali, con protezioni specifiche per gli utenti vulnerabili.

Firmando la lettera aperta della Dichiarazione di Bletchley, ribadiamo il nostro impegno a rafforzare il dialogo globale sulla sicurezza e l’accessibilità dell’IA attraverso una pluralità di approcci complementari. Sosteniamo l’armonizzazione dei quadri di governance emergenti — quali il Quadro di gestione dei rischi dell’IA del NIST, gli standard ISO/IEC e l’AI Act dell’UE — sottolineando al contempo che una supervisione efficace deve integrare le prospettive e le metodologie di tutte le parti interessate. Collegando gli standard tecnici a una progettazione incentrata sull’uomo e integrando l’accessibilità lungo l’intero ciclo di vita dell’IA, possiamo garantire che i modelli di frontiera non solo mitighino i rischi, ma amplino attivamente le capacità di coloro che più necessitano di tecnologie assistive. Questo approccio integrato è essenziale per garantire che l’IA promuova la dignità umana, l’autonomia e l’accesso in ogni comunità e contesto.

• • •

Riferimenti

¹ Governo del Regno Unito. «La Dichiarazione di Bletchley dei Paesi partecipanti al Vertice sulla sicurezza dell’IA, 1–2 novembre 2023.» GOV.UK. 1 novembre 2023.

² Governo del Regno Unito. «Sintesi del presidente del Vertice sulla sicurezza dell’IA 2023, Bletchley Park.» GOV.UK. 2 novembre 2023.

³ NIST. «Quadro di riferimento per la gestione dei rischi dell’intelligenza artificiale (AI RMF 1.0).» NIST AI.100-1. Istituto Nazionale di Standard e Tecnologia. 26 gennaio 2023.

⁴ Organizzazione internazionale per la standardizzazione. «ISO/IEC 23894:2023 — Tecnologia dell’informazione — Intelligenza artificiale — Linee guida sulla gestione dei rischi.» 2023.

⁵ OECD.AI. «AI Incidents Monitor (AIM) — Piattaforma globale sugli incidenti e i rischi legati all’intelligenza artificiale.» 2023.

⁶ OCSE. «Definizione degli incidenti legati all’intelligenza artificiale e dei termini correlati.» Organizzazione per la cooperazione e lo sviluppo economico. 2024.