Code de bonnes pratiques pour l'IA à usage général (groupes de travail 2, 3) [FR]
Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.
Suite à l'appel à contributions de la Commission, nous avons participé aux groupes de travail 2 (Évaluation des Risques pour les Risques Systémiques) et 3 (Atténuation Technique des Risques pour les Risques Systémiques) afin de contribuer à l'élaboration du Code de bonnes pratiques pour l'Intelligence Artificielle à usage général (IAUG).
Le Code de bonnes pratiques pour l'Intelligence Artificielle à usage général constitue un cadre de corégulation volontaire développé en vertu de l'Article 56 du Règlement sur l'IA de l'UE afin de soutenir les fournisseurs de modèles d'intelligence artificielle à usage général (IAUG) dans l'alignement avec les obligations légales à venir. Il est actuellement rédigé de manière collaborative par plus de 1 000 parties prenantes—incluant des développeurs d'IA, des représentants de la société civile, des universitaires, des représentants de l'industrie et des observateurs internationaux—dans le cadre d'un processus coordonné par la Commission européenne. Le Code est structuré autour de quatre groupes de travail spécialisés : le Groupe de Travail 1 traite des exigences de transparence pour tous les modèles IAUG (avec des exceptions limitées pour certains systèmes open source), tandis que les Groupes de Travail 2, 3 et 4 forment la Section Sûreté et Sécurité. Ces groupes se concentrent spécifiquement sur les modèles IAUG considérés comme présentant un risque systémique, couvrant les méthodologies d'évaluation des risques (GT2), les mesures techniques d'atténuation des risques (GT3) et les mécanismes de gouvernance (GT4). Une fois finalisé, le Code sera soumis à l'approbation de l'Office de l'IA de l'UE et du Conseil de l'IA, et est destiné à évoluer avec les développements technologiques futurs.
Thèmes connexes
Suggestions pour le Règlement sur l'IA sous l'angle de l'accessibilité (OCDE)
Référentiel et rapport sur l'adoption des technologies d'assistance (OCDE)
Cadre d'Hiroshima du G7 de l'OCDE et mécanisme de rapport (OCDE)
Dialogue avec les responsables du Règlement sur l'IA (Dragos Tudorache)
Discours public sur le Règlement sur l'IA, Sommet sur le Règlement sur l'IA
Chronologie du Code de bonnes pratiques de l'UE pour l'IA à usage général
Appel initial/Lancement du processus de rédaction : Juillet-Octobre 2024
Publication de la version 1 : 14 novembre 2024
Publication de la version 2 : 19 décembre 2024
Publication de la version 3 : 11 mars 2025
Publication finale (prévue)
Contributions antérieures sur l'IAUG et les systèmes publics dans le cadre du Règlement sur l'IA
Article 5(1)(b) Interdit l'exploitation des vulnérabilités — exiger des tests multimodaux et multiméthodes pour identifier les schémas d'interaction qui pourraient exploiter involontairement les vulnérabilités cognitives, sensorielles ou émotionnelles des utilisateurs (tels que les mineurs, les personnes âgées, les personnes en situation de handicap) au sein des modèles IAUG. Les tests doivent couvrir divers environnements de déploiement (basés sur le cloud, dispositifs périphériques, connectivité intermittente) pour tenir compte des technologies d'assistance dans des contextes de connectivité limitée et des « zones mortes » urbaines où les systèmes de sécurité publique pourraient connaître une dégradation des performances.
Article 9(9) Évaluation des risques pour les groupes vulnérables — imposer des évaluations d'impact à l'échelle du système qui capturent comment les modèles IAUG affectent les infrastructures critiques et les écosystèmes de soins dans leur ensemble — incluant les utilisateurs en situation de handicap, les aidants informels, le personnel clinique et les fournisseurs de technologies d'assistance. Étendre l'évaluation aux dépendances des infrastructures urbaines où les modèles IAUG peuvent contrôler les transports publics, l'accès aux services d'urgence ou les technologies de participation civique qui impactent de manière disproportionnée les populations vulnérables.
Article 13(3) Transparence sur les performances spécifiques à des groupes — exiger des rapports de performance granulaires sur la manière dont les modèles IAUG interagissent avec le matériel/logiciel adaptatif (par exemple, les lecteurs d'écran, les dispositifs de communication alternative et augmentative), et assurer la transparence sur la manière dont différentes interfaces utilisateur peuvent affecter l'accessibilité et la fiabilité à travers le spectre des technologies d'assistance. Inclure des métriques standardisées pour les performances pendant les perturbations d'infrastructure et d'autres scénarios affectant la sécurité publique.
Article 14(5) Surveillance humaine dans les systèmes d'identification biométrique — mettre en œuvre des protocoles de surveillance humaine en cascade dans les technologies d'assistance alimentées par l'IAUG, en veillant à ce que les résultats affectant les soins critiques ou l'autonomie (par exemple, la détection de chutes, les rappels de médicaments) soient vérifiés par des chaînes de parties prenantes (par exemple, les cliniciens, les aidants, les utilisateurs finaux). Étendre la surveillance aux modèles IAUG déployés dans la surveillance urbaine, la gestion des urgences et les systèmes de mobilité où les décisions automatisées impactent la sécurité publique et la liberté de mouvement.
Article 16(l) Conformité aux exigences d'accessibilité des Directives de l'UE — créer des cadres d'accessibilité spécifiques à l'IAUG qui vont au-delà des paradigmes mono-utilisateur et tiennent compte des environnements de soins complexes impliquant des interactions multi-dispositifs et multi-utilisateurs, tels que les maisons intelligentes ou les plateformes de coordination de soins partagés. Renforcer les normes d'interopérabilité entre les modèles IAUG et les technologies d'assistance existantes, en garantissant la rétrocompatibilité avec les solutions d'accessibilité établies et l'intégration transparente avec les infrastructures numériques urbaines utilisées par des populations diverses.
Article 26(7) Obligation d'information sur l'IA en milieu de travail — développer des protocoles de communication accessibles (texte, audio, langage clair, visuel) pour garantir que l'utilisation des systèmes d'IA soit compréhensible pour les employés en situation de handicap et leur personnel de soutien (par exemple, les interprètes, les aides en milieu de travail).
Article 27 Évaluations d'impact sur les droits fondamentaux — adopter des méthodologies d'évaluation qui tiennent compte de la manière dont l'IAUG pourrait introduire ou amplifier les risques liés à la manipulation, à la dépendance, à l'exclusion informationnelle ou à la perte d'autonomie dans des contextes de soins ou d'éducation à haut risque. Inclure une évaluation spécifique de la manière dont les infrastructures civiques alimentées par l'IAUG (systèmes de vote, demandes de permis, prestations publiques) pourraient involontairement créer des résultats discriminatoires ou un accès inégal aux services urbains essentiels.
Article 67 Accès aux données pour la recherche et le développement — établir des cadres d'accès à la recherche sécurisés et transparents permettant aux chercheurs de la société civile et du monde universitaire d'étudier les modèles IAUG dans des scénarios réels de soins de santé, d'éducation et de technologies d'assistance, avec des protections pour les utilisateurs vulnérables. Inclure des dispositions pour étudier les performances de l'IAUG dans la gestion des crises urbaines, l'allocation des ressources en cas d'urgence et le fonctionnement des infrastructures publiques afin d'identifier les biais ou les modes de défaillance potentiels affectant la résilience des communautés.
Article 50(3) Transparence pour les systèmes biométriques/émotionnels — exiger des protocoles de divulgation explicite et d'explicabilité lorsque les modèles IAUG servent d'intermédiaires pour l'accès à des services publics ou privés (par exemple, dépistage de la santé mentale, évaluation de l'éligibilité), en particulier pour les utilisateurs dépendant de technologies d'assistance ou intermédiaires. Étendre ces protocoles aux systèmes de surveillance urbaine utilisant l'analyse des sentiments, la prédiction du comportement des foules ou d'autres technologies d'inférence qui façonnent les réponses de sécurité publique ou l'allocation des ressources.
Article 52(1) Notification de l'interaction avec le système d'IA — mettre en œuvre des normes de notification multimodales (auditives, haptiques, visuelles, texte simplifié) afin que tous les utilisateurs, y compris ceux présentant des déficiences sensorielles ou cognitives, soient informés lorsqu'ils interagissent avec ou sont influencés par un modèle IAUG.
Article 54(1)(a) Évaluation de l'IAUG à risque systémique — établir des bancs d'essai spécifiques aux domaines pour l'IAUG qui simulent des environnements critiques (hôpitaux, salles de classe d'éducation spéciale, environnements de vieillissement sur place) pour tester les effets réels sur la qualité des services, l'accès et l'autonomie des utilisateurs. Développer des jumeaux numériques urbains pour tester les performances de l'IAUG dans des applications à l'échelle de la ville, y compris la gestion des urgences, les opérations des services publics et les systèmes de transport public, avec une attention particulière à l'accessibilité pendant les conditions de contrainte ou de défaillance du système.
Article 56(2)(c) Directives de formation pour les fournisseurs d'IAUG — développer des protocoles de formation spécialisés pour l'IAUG dans les domaines à fort impact, nécessitant la simulation d'environnements riches en parties prenantes (par exemple, services pour personnes en situation de handicap, éducation spéciale) et une préformation ciblée sur l'accessibilité et les considérations éthiques.
Article 58(1) Espaces d'expérimentation réglementaire pour l'innovation — créer des espaces d'expérimentation réglementaire dédiés pour les applications d'IAUG dans les technologies d'assistance, l'éducation et les soins de santé, axés sur l'identification des vecteurs de manipulation, des lacunes en matière d'équité et des conséquences d'exclusion involontaires dans les déploiements réels.
Article 69(1) Accessibilité publique de l'Office de l'IA — veiller à ce que l'Office de l'IA inclue des spécialistes en technologie publique, vieillissement et ingénierie de l'accessibilité, capables d'interpréter comment l'IAUG interagit avec les systèmes de soins et médiase l'accès aux droits, services ou autonomie.
Article 95(2)(e) Code de bonnes pratiques pour les groupes vulnérables — développer des cadres d'évaluation robustes pour évaluer les modèles IAUG par rapport aux risques connus de manipulation et d'accessibilité, mesurant l'efficacité à travers divers profils d'utilisateurs et assurant la compatibilité avec l'écosystème complet des technologies d'assistance. Mettre en œuvre des mécanismes de mise à jour continue pour maintenir les cadres à jour avec les technologies d'assistance et les systèmes urbains en évolution, y compris des dispositions pour l'évaluation rapide des nouveaux déploiements d'IAUG dans les infrastructures publiques critiques.
Engagements du Code de bonnes pratiques pour l'IA à usage général (Projet 3)
Bien que les contributions suivantes visent principalement à façonner la version finale du Code de bonnes pratiques, elles soutiennent également la mise en œuvre des dispositions existantes du Règlement sur l'IA. Dans plusieurs cas, le troisième projet actuel du Code inclut déjà des engagements pertinents. Nos contributions s'appuient sur ces projets de dispositions ou les étendent.
Évaluation des Risques Systémiques (Engagement II.1) "Les signataires s'engagent à adopter et à mettre en œuvre un Cadre de Sûreté et de Sécurité [...] qui détaillera l'évaluation des risques systémiques, l'atténuation des risques systémiques et les mesures d'atténuation des risques de gouvernance." (Projet 3, Engagement II.1). Contribution : étendre les évaluations des risques systémiques pour inclure des modèles spécifiques aux domaines des écosystèmes de soins, capturant les impacts de l'IAUG sur les utilisateurs vulnérables et les infrastructures publiques.
Documentation et Performance des Technologies d'Assistance (Engagement I.1) "Les signataires s'engagent à établir et à maintenir à jour la documentation des modèles [...] fournissant des informations pertinentes aux fournisseurs en aval." (Projet 3, Engagement I.1, Mesure I.1.1). Contribution : ajout de rapports de performance granulaires sur la manière dont les modèles IAUG interagissent avec les technologies et interfaces adaptatives.
Droits d'Auteur et Accès à la Recherche (Engagement I.2) "Les signataires s'engagent à établir, maintenir à jour et mettre en œuvre une politique de droits d'auteur [...] et à adopter les Mesures I.2.2–I.2.6." (Projet 3, Engagement I.2). Contribution : ajout de mécanismes pour l'accès de la société civile et de la recherche académique aux modèles IAUG.
Interopérabilité et Rétrocompatibilité (Engagement I.1 / I.3)
"Les signataires s'engagent à établir et à maintenir à jour la documentation des modèles [...] fournissant des informations pertinentes aux fournisseurs en aval." (Projet 3, Engagement I.1). Contribution : exiger la documentation de la compatibilité de l'IAUG avec les technologies d'assistance existantes et les API pour l'intégration dans des environnements publics et à ressources limitées.Protocoles de Surveillance Humaine et d'Escalade (Engagement II.2 / II.3)
"Les signataires s'engagent à mettre en œuvre des mesures de surveillance humaine appropriées pour garantir que le modèle d'intelligence artificielle à usage général à risque systémique ne pose pas de risques systémiques." (Projet 3, Engagement II.2). Contribution : définir des rôles de surveillance humaine à plusieurs niveaux et des chaînes d'escalade pour l'IAUG dans les services publics (par exemple, les soins de santé, la sécurité).Métriques d'Évaluation (Engagement III.1)
"Les signataires s'engagent à évaluer et à tester les modèles d'intelligence artificielle à usage général à risque systémique conformément à des protocoles et outils standardisés." (Projet 3, Engagement III.1). Contribution : rendre obligatoires les métriques de performance d'accessibilité désagrégées et les indicateurs d'utilisabilité civique (par exemple, latence des lecteurs d'écran, achèvement des tâches).Préformation Spécifique au Contexte d'Assistance (Engagement I.1)
"Les signataires s'engagent à établir et à maintenir à jour la documentation des modèles [...] fournissant des informations pertinentes aux fournisseurs en aval." (Projet 3, Engagement I.1). Contribution : exiger une préformation de l'IAUG sur les contextes d'assistance et de service public (par exemple, éducation inclusive, modèles d'interaction avec les technologies d'assistance).Espaces d'Expérimentation Réglementaire et Bancs d'Essai (Article 58 du Règlement sur l'IA). Contribution : bancs d'essai spécifiques à l'IAUG dans des domaines tels que les soins de santé, l'éducation et les infrastructures urbaines.
Notifications Multimodales et Transparence (Article 52 du Règlement sur l'IA). Contribution : le Code devrait exiger des notifications auditives, visuelles et haptiques pour les interactions avec l'IA afin de garantir l'accessibilité.
En attendant la version finale du Code de bonnes pratiques de l'UE pour les modèles d'intelligence artificielle à usage général (date finale à confirmer), une opportunité cruciale demeure pour renforcer ses dispositions relatives aux infrastructures publiques et critiques et aux systèmes publics.
• • •
Références
¹ Commission européenne. "Code de bonnes pratiques pour l'IA à usage général." Façonner l'avenir numérique de l'Europe. 2024.
² Commission européenne. "Troisième Projet du Code de bonnes pratiques pour l'IA à usage général publié, rédigé par des experts indépendants." 11 mars 2025.
³ Union européenne. "Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées en matière d'intelligence artificielle (Règlement sur l'intelligence artificielle)." Journal officiel de l'Union européenne. 13 juin 2024.
⁴ Commission européenne. "Règlement sur l'IA : participez à l'élaboration du premier Code de Conduite pour l'IA à Usage Général." 30 juillet 2024.
⁵ Parlement européen et Conseil. "Directive (UE) 2016/2102 relative à l'accessibilité des sites web et des applications mobiles des organismes du secteur public." Octobre 2016.
⁶ Parlement européen et Conseil. "Directive (UE) 2019/882 relative aux exigences en matière d'accessibilité pour les produits et services (Acte européen sur l'accessibilité)." Avril 2019.