Organizzazione Mondiale della Sanità: linee guida sui modelli multimodali di grandi dimensioni [IT]
Questa pagina è una traduzione dell'articolo originale in inglese. Si prega di notare che la navigazione è disponibile solo in inglese.
Abbiamo fornito un contributo alle linee guida complete dell’Organizzazione Mondiale della Sanità sulla governance dei modelli multimodali di grandi dimensioni (LMM), un sottoinsieme dell’IA generativa, per le applicazioni nel settore sanitario. Le linee guida si fondano sul quadro di riferimento dell’OMS del 2021 sull’etica dell’IA e mirano ad aiutare gli Stati membri a valutare le implicazioni degli LMM e a definire percorsi normativi per la loro implementazione etica, sicura ed equa.
Correlati
NIST: Generative AI Profile (AI 600-1) e AI Risk Management Framework (AI RMF)
PCAST: Gruppo di lavoro sull’IA generativa (aggiornato)
Statistiche chiave e approfondimenti
Gli LMM rappresentano il tasso di adozione più rapido di qualsiasi tecnologia di consumo nella storia, con ChatGPT che ha raggiunto 100 milioni di utenti in due mesi (gennaio 2023). Questi modelli sono in grado di elaborare e generare diversi tipi di dati — testo, immagini, audio, video — e vengono attualmente sperimentati in ambito clinico, nell’istruzione, nelle attività amministrative e nella ricerca. Diversi LMM hanno superato l’esame di abilitazione alla professione medica negli Stati Uniti, sebbene le prestazioni rimangano variabili al di fuori di set di dati ben rappresentati.
I set di dati di addestramento dimostrano una notevole portata e diversità nelle applicazioni mediche. Gli esempi includono modelli addestrati su oltre 30.000 referti clinici, oltre 100.000 radiografie toraciche e milioni di cartelle cliniche elettroniche. Le valutazioni delle prestazioni mostrano risultati variabili; uno studio statunitense del 2023 indica che le risposte di ChatGPT sono state preferite a quelle dei medici in circa l’80% dei 195 casi analizzati da un forum medico online.
Panoramica dei rischi
Accuratezza: gli studi mostrano tassi di allucinazione del 3–27%, a seconda del prompt e del modello.
Distorsione: i dati di addestramento sovrarappresentano spesso le regioni ad alto reddito; ad esempio, i set di dati genetici sono sbilanciati verso persone di discendenza europea.
Distorsione da automazione: i medici potrebbero fare eccessivo affidamento sui risultati dell’IA, con il rischio di incorrere in errori clinici.
Impatto ambientale: gli LMM contribuiscono in modo significativo all’impronta di carbonio e idrica, sollevando preoccupazioni in materia di sostenibilità.
Le implicazioni per la forza lavoro presentano sfide molteplici. Gli LMM potrebbero sostituire determinati ruoli nel settore sanitario, richiedendo al contempo nuove competenze e iniziative di riqualificazione. La tecnologia può dar luogo a condizioni di lavoro nel settore dei dati caratterizzate da bassi salari e elevato stress psicologico. L’autonomia del paziente è esposta a rischi particolari a causa di processi di consenso informato compromessi e di ingiustizia epistemica, con i gruppi emarginati che subiscono una vulnerabilità sproporzionata.
Quadro di governance
L’OMS raccomanda un’azione strutturata lungo tutto il ciclo di vita dell’IA: Sviluppo → Fornitura → Implementazione.
Fase di sviluppo — Responsabilità
Sviluppatori
Condurre valutazioni d’impatto sulla protezione dei dati
Coinvolgere diversi portatori di interessi
Ottimizzare l’efficienza energetica
Garantire la trasparenza sui dati di addestramento
Governi
Adottare leggi rigorose sulla protezione dei dati
Rendere obbligatori la pre-certificazione e gli standard basati sui risultati
Finanziare LMM open source
Applicare la responsabilità in materia di carbonio e acqua
Fase di fornitura: i governi dovrebbero assegnare l’autorità di approvazione normativa, richiedere audit di terze parti e trasparenza riguardo al codice sorgente e all’input dei dati, applicare leggi a tutela dei consumatori e vietare l’uso sperimentale al di fuori di contesti clinici controllati senza supervisione.
Fase di implementazione: gli implementatori (ad es. ministeri, ospedali) devono evitare l’uso degli LMM in contesti inadatti, comunicare i rischi in modo trasparente, garantire prezzi equi e l’accessibilità linguistica, e formare i professionisti sui limiti degli LMM, sulla sicurezza informatica e sull’uso etico.
Il quadro dell’OMS si fonda su sei principi etici fondamentali: proteggere l’autonomia, promuovere il benessere e la sicurezza, garantire la trasparenza e la spiegabilità, favorire la responsabilità, garantire l’inclusività e l’equità, e promuovere la sostenibilità. Per rafforzare la protezione degli utenti, le linee guida raccomandano ai governi di prendere in considerazione regimi di responsabilità oggettiva, meccanismi di risarcimento senza colpa e presunzioni di causalità per ridurre gli ostacoli al ricorso. L’OMS sollecita inoltre una governance internazionale equa, che coinvolga non solo le nazioni e le imprese ad alto reddito, ma anche i paesi a basso e medio reddito, la società civile e le istituzioni multilaterali, attraverso un modello di multilateralismo in rete.
• • •
Riferimenti
¹ Organizzazione Mondiale della Sanità. «Etica e governance dell’intelligenza artificiale per la salute: linee guida sui modelli multimodali di grandi dimensioni.» Ginevra: OMS; 2024. ISBN: 978-92-4-008475-9.
² Organizzazione Mondiale della Sanità. «L’OMS pubblica linee guida sull’etica e la governance dell’IA per i modelli multimodali di grandi dimensioni.» 18 gennaio 2024.
³ Organizzazione Mondiale della Sanità. «Etica e governance dell’intelligenza artificiale per la salute: linee guida dell’OMS.» Ginevra: OMS; 2021. ISBN: 978-92-4-003419-8.
⁴ Organizzazione Mondiale della Sanità. «L’OMS pubblica il primo rapporto globale sull’intelligenza artificiale (IA) in ambito sanitario e sei principi guida per la sua progettazione e il suo utilizzo.» 28 giugno 2021.
⁵ WHO IRIS (Archivio istituzionale per la condivisione delle informazioni). «Etica e governance dell’intelligenza artificiale per la salute.» 2021.
⁶ Organizzazione Mondiale della Sanità, Capo Scienziato e Divisione Scientifica, Unità di Etica e Governance Sanitaria. «Etica e governance dell’intelligenza artificiale per la salute: linee guida sui modelli multimodali di grandi dimensioni.» 2024.
⁷ Centro Nazionale per le Informazioni Biotecnologiche, PMC. «Modelli multimodali di grandi dimensioni — il presente o il futuro dell’intelligenza artificiale in medicina?» PMC10915764. Marzo 2024.
⁸ Nature Digital Medicine. «Iniziativa globale sull’IA per la salute (GI-AI4H): priorità strategiche per promuovere la governance in seno alle Nazioni Unite.» 2025.
⁹ Centro Nazionale per le Informazioni Biotecnologiche, PMC. «L’etica del progresso dell’intelligenza artificiale nell’assistenza sanitaria: analisi delle considerazioni etiche per l’innovativo sistema ospedaliero giapponese basato sull’IA.» PMC10390248. 2023.