La Dichiarazione di Seul e gli impegni sulla sicurezza dell’IA di frontiera [IT]
Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.
Sulla scia della Dichiarazione di Seul per un’IA sicura, innovativa e inclusiva, abbiamo aderito alla Korea AI Safety per approfondire ulteriormente il modo in cui gli algoritmi possono alimentare le tassonomie pubbliche, assistive e di accessibilità in modo sicuro, considerando sia gli aspetti dei modelli sia le relative infrastrutture critiche.
Correlati
Il Patto sull’IA e i prossimi passi per l’attuazione dell’AI Act: accesso e sistemi pubblici
Codice di buone pratiche per l’IA a uso generale (Gruppi di lavoro 2 e 3)
La Dichiarazione di Seul sulla sicurezza dell’IA, adottata il 21 maggio 2024 durante il Vertice sull’IA di Seul, si fonda sulla Dichiarazione di Bletchley dell’anno precedente. Firmata dai leader di 10 paesi e dall’Unione Europea, sottolinea la necessità di una collaborazione internazionale per garantire lo sviluppo sicuro, innovativo e inclusivo dell’intelligenza artificiale (IA). La dichiarazione mette in evidenza l’importanza di un’IA incentrata sull’uomo e in linea con lo Stato di diritto. Sostiene inoltre il superamento del divario digitale e il rafforzamento della cooperazione globale per affrontare le sfide e cogliere le opportunità dell’IA.
Tra i principali risultati del Vertice di Seul figura la creazione di una rete internazionale di istituti per la sicurezza dell’IA. Questa rete riunisce organizzazioni provenienti da Regno Unito, Stati Uniti, Giappone, Francia, Germania, Italia, Singapore, Corea del Sud, Australia, Canada e Unione Europea. Il suo obiettivo è promuovere la collaborazione nella ricerca sulla sicurezza, condividere le migliori pratiche e sviluppare risorse tecniche per far progredire la sicurezza dell’IA.
Un altro risultato è l’introduzione dei Frontier AI Safety Commitments. Sedici aziende globali di IA — tra cui Amazon, Google, Meta, Microsoft, Anthropic e OpenAI — si sono impegnate a definire e divulgare i «rischi intollerabili» posti dai sistemi di IA avanzati. Questi impegni si concentrano su aree chiave quali la sicurezza informatica, l’autonomia dei modelli e le perturbazioni sociali. Le aziende hanno promesso di pubblicare quadri di riferimento sulla sicurezza che delineino le loro strategie di gestione dei rischi, tra cui il potenziamento della trasparenza, la conduzione di red-teaming interni ed esterni e l’incoraggiamento alla segnalazione di vulnerabilità da parte di terzi. Questi sforzi rappresentano un passo importante verso una gestione proattiva dei rischi e la definizione di standard globali per uno sviluppo sicuro dell’IA.
Impegni sulla sicurezza dell’IA di frontiera
La dichiarazione è integrata dai Frontier AI Safety Commitments — una serie di impegni volontari da parte delle principali organizzazioni di IA per gestire i gravi rischi associati a modelli di IA potenti e a uso generale.
Valutazione rigorosa dei rischi: Le aziende si impegnano a valutare i potenziali danni prima e durante l’addestramento e prima del deployment dei propri modelli di IA. Ciò implica sia test interni sia valutazioni esterne.
Definizione e gestione dei rischi «intollerabili»: Un impegno fondamentale consiste nello stabilire soglie chiare per i rischi gravi e inaccettabili. Se tali soglie vengono raggiunte e le misure di mitigazione risultano insufficienti, le organizzazioni si impegnano a non sviluppare né distribuire il modello.
Governance solida e trasparenza: Ciò comporta la creazione di solidi quadri di sicurezza interni, la rendicontazione pubblica dei progressi, il coinvolgimento di esperti esterni per il «red-teaming» (stress-test dell’IA), il potenziamento della sicurezza informatica e la condivisione selettiva di informazioni sulle capacità e sui rischi dei modelli.
Sicurezza dell’IA e sistemi pubblici
Il nostro contributo e la nostra partecipazione al dibattito pubblico hanno riguardato il modo in cui i Frontier AI Safety Commitments possono essere ulteriormente perfezionati per allinearsi a un ampio protocollo e a una tassonomia di sistemi pubblici e assistivi, con attenzione sia ai modelli di IA fondamentali sia a quelli applicati — quali i modelli linguistici di grandi dimensioni (LLM), i modelli linguistici di piccole dimensioni (SLM), i modelli visione-linguaggio (VLM) e i modelli di fondazione 3D emergenti — nonché alle capacità multimodali. Questi modelli sono fondamentali per le tecnologie assistive, l’assistenza sanitaria e i contesti pubblici. Gli istituti per la sicurezza dell’IA devono strutturare i propri sforzi e le proprie capacità in modo da comprendere un’ampia gamma di sistemi e interfacce, dalla robotica assistiva agli strumenti di accessibilità. Particolare attenzione dovrebbe essere riservata ai sandbox normativi e ai banchi di prova che simulano le condizioni del mondo reale, garantendo che i modelli di IA siano sicuri e accessibili. Ad esempio, i sistemi di IA assistiva — quali dispositivi a comando vocale o ausili per la mobilità — devono essere sottoposti a test di conformità in questi ambienti per garantirne il funzionamento sicuro, specialmente quando interagiscono con utenti che presentano diverse menomazioni cognitive, sensoriali o fisiche.
I modelli di IA di frontiera dovrebbero essere valutati sulla base di fattori tecnici critici quali requisiti di dati, potenza di calcolo, consumo energetico e resilienza informatica in tutti i settori. Tale valutazione deve inoltre considerare l’impatto pratico su aree pubbliche ad alto rischio come luoghi di lavoro, sanità e istruzione. I rischi e le soglie dovrebbero essere definiti in base alle applicazioni nel mondo reale, non solo alle capacità teoriche. Ad esempio, l’implementazione di un modello di fondazione 3D nelle tecnologie assistive o nella sanità richiede una valutazione rigorosa della robustezza, al fine di prevenire usi impropri. Infine, in linea con il contributo pubblico, gli sviluppatori di IA dovrebbero divulgare le valutazioni di sicurezza sia pre-mitigazione sia post-mitigazione, per fornire un quadro più chiaro dell’efficacia delle loro strategie di gestione del rischio.
• • •
Riferimenti
¹ Governo del Regno Unito. «Dichiarazione di Seul per un’IA sicura, innovativa e inclusiva dei partecipanti alla sessione dei leader: Vertice sull’IA di Seul, 21 maggio 2024.» GOV.UK. 21 maggio 2024.
² Governo del Regno Unito. «Dichiarazione d’intenti di Seul per la cooperazione internazionale sulla scienza della sicurezza dell’IA, Vertice sull’IA di Seul 2024 (Allegato).» GOV.UK. 21 maggio 2024.
³ Governo del Regno Unito. «Impegni sulla sicurezza dell’IA di frontiera, Vertice sull’IA di Seul 2024.» GOV.UK. 21 maggio 2024.
⁴ Governo del Regno Unito. «Dichiarazione ministeriale di Seul per promuovere la sicurezza, l’innovazione e l’inclusività dell’IA: Vertice sull’IA di Seul 2024.» GOV.UK. 22 maggio 2024.
⁵ Centro per gli studi strategici e internazionali. «Il Vertice sull’IA di Seul.» 15 ottobre 2024.
⁶ Istituto economico coreano d’America. «Principali impegni assunti al Vertice sull’IA di Seul.» 29 maggio 2024.