Organisation mondiale de la santé : lignes directrices sur les grands modèles multimodaux [FR]
Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.
Nous avons contribué aux lignes directrices complètes de l'Organisation mondiale de la santé sur la gouvernance des grands modèles multimodaux (LMM), un sous-ensemble de l'IA générative, pour des applications dans le domaine des soins de santé. Ces lignes directrices s'appuient sur le cadre de 2021 de l'OMS en matière d'éthique de l'IA et visent à aider les États membres à évaluer les implications des LMM et à définir des voies réglementaires pour leur déploiement éthique, sûr et équitable.
Connexes
U.S. Access Board : Décret exécutif sur l'IA et l'accessibilité
NIST : Profil de l'IA générative (AI 600-1) et cadre de gestion des risques liés à l'IA (AI RMF)
PCAST : Groupe de travail sur l'IA générative (mis à jour)
WEF : Le potentiel de l'IA générative en matière d'accessibilité
Statistiques et informations clés
Les LMM affichent le taux d'adoption le plus rapide de toute technologie grand public de l'histoire, ChatGPT ayant atteint 100 millions d'utilisateurs en deux mois (janvier 2023). Ces modèles peuvent traiter et générer plusieurs types de données (texte, images, audio, vidéo) et sont actuellement testés dans les domaines des soins cliniques, de l'éducation, des tâches administratives et de la recherche. Plusieurs LMM ont réussi l'examen américain d'autorisation d'exercer la médecine, bien que leurs performances restent variables en dehors des ensembles de données bien représentés.
Les ensembles de données d'entraînement démontrent une échelle et une diversité considérables dans les applications médicales. On peut citer comme exemples des modèles entraînés sur plus de 30 000 rapports de cas médicaux, plus de 100 000 radiographies thoraciques et des millions de dossiers médicaux électroniques. Les évaluations des performances montrent des résultats variables. Une étude américaine de 2023 indique que les réponses de ChatGPT ont été préférées à celles des médecins dans environ 80 % des 195 cas analysés à partir d'un forum médical en ligne.
Aperçu des risques
Précision : des études montrent des taux d'hallucination de 3 à 27 %, selon la demande et le modèle.
Biais : les données d'entraînement surreprésentent souvent les régions à revenus élevés ; par exemple, les ensembles de données génétiques sont biaisés en faveur des personnes d'origine européenne.
Biais d'automatisation : les médecins peuvent se fier excessivement aux résultats de l'IA, ce qui entraîne un risque d'erreurs cliniques.
Impact environnemental : les LMM contribuent de manière significative à l'empreinte carbone et à l'empreinte hydrique, ce qui soulève des préoccupations en matière de durabilité.
Les implications pour la main-d'œuvre présentent des défis multiples. Les LMM peuvent remplacer certaines fonctions dans le domaine de la santé tout en nécessitant de nouvelles compétences et des initiatives de reconversion professionnelle. Cette technologie peut entraîner des conditions de travail psychologiquement éprouvantes et des salaires bas dans le domaine du traitement des données. L'autonomie des patients est particulièrement menacée par la remise en cause des processus de consentement éclairé et l'injustice épistémique, les groupes marginalisés étant exposés à une vulnérabilité disproportionnée.
Cadre de gouvernance
L'OMS recommande une action structurée tout au long du cycle de vie de l'IA : développement → fourniture → déploiement.
Phase de développement – Responsabilités
Développeurs
Réaliser des analyses d'impact sur la protection des données
Impliquer diverses parties prenantes
Optimiser l'efficacité énergétique
Assurer la transparence des données d'entraînement
Gouvernements
Adopter des lois strictes en matière de protection des données
Imposer une pré-certification et des normes basées sur les résultats
Financer les LMM open source
Appliquer la responsabilité en matière de carbone et d'eau
Phase de fourniture : les gouvernements doivent attribuer une autorité de réglementation, exiger des audits par des tiers et la transparence concernant le code source et les données saisies, appliquer les lois sur la protection des consommateurs et interdire toute utilisation expérimentale non testée sans supervision.
Phase de déploiement : les déployeurs (par exemple, les ministères, les hôpitaux) doivent éviter d'utiliser les LMM dans des contextes inadaptés, communiquer ouvertement les risques, garantir une tarification équitable et un accès linguistique, et former les professionnels aux limites des LMM, à la cybersécurité et à l'utilisation éthique.
Le cadre de l'OMS repose sur six principes éthiques fondamentaux : protéger l'autonomie, promouvoir le bien-être et la sécurité, garantir la transparence et l'explicabilité, favoriser la responsabilité, garantir l'inclusion et l'équité, et promouvoir la durabilité. Afin de renforcer la protection des utilisateurs, les lignes directrices recommandent aux gouvernements d'envisager des régimes de responsabilité stricte, des mécanismes d'indemnisation sans faute et des présomptions de causalité afin de réduire les obstacles à la réparation. L'OMS préconise en outre une gouvernance internationale équitable, impliquant non seulement les pays et les entreprises à revenu élevé, mais aussi les pays à revenu faible et intermédiaire, la société civile et les institutions multilatérales, grâce à un modèle de multilatéralisme en réseau.
• • •
Références
¹ Organisation mondiale de la santé. « Éthique et gouvernance de l'intelligence artificielle pour la santé : lignes directrices sur les grands modèles multimodaux ». Genève : OMS ; 2024. ISBN : 978-92-4-008475-9.
² Organisation mondiale de la santé. « L'OMS publie des orientations sur l'éthique et la gouvernance de l'IA pour les grands modèles multimodaux ». 18 janvier 2024.
³ Organisation mondiale de la santé. « Éthique et gouvernance de l'intelligence artificielle pour la santé : orientations de l'OMS ». Genève : OMS ; 2021. ISBN : 978-92-4-003419-8.
⁴ Organisation mondiale de la santé. « L'OMS publie le premier rapport mondial sur l'intelligence artificielle (IA) dans le domaine de la santé et six principes directeurs pour sa conception et son utilisation. » 28 juin 2021.
⁵ IRIS (Institutional Repository for Information Sharing) de l'OMS. « Éthique et gouvernance de l'intelligence artificielle pour la santé. » 2021.
⁶ Organisation mondiale de la santé, scientifique en chef et division scientifique, unité Éthique et gouvernance de la santé. « Éthique et gouvernance de l'intelligence artificielle pour la santé : recommandations sur les grands modèles multimodaux ». 2024.
⁷ Centre national d'information sur les biotechnologies, PMC. « Grands modèles multimodaux : le présent ou l'avenir de l'intelligence artificielle en médecine ? » PMC10915764. Mars 2024.
⁸ Nature Digital Medicine. « Initiative mondiale sur l'IA pour la santé (GI-AI4H) : priorités stratégiques pour faire progresser la gouvernance au sein des Nations unies ». 2025.
⁹ Centre national d'information sur les biotechnologies, PMC. « L'éthique du développement de l'intelligence artificielle dans les soins de santé : analyse des considérations éthiques pour le système hospitalier japonais innovant basé sur l'IA ». PMC10390248. 2023.