Code de bonnes pratiques pour l’IA à usage général (groupes de travail 2, 3) [FR]
Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.
Cette contribution reflète les apports développés lors de la rédaction du Projet 3 du Code de bonnes pratiques pour l’IA à usage général (mars 2025), avant la finalisation du Code.
Suite à l’appel à contributions de la Commission, nous avons participé aux groupes de travail 2 (Évaluation des Risques pour les Risques Systémiques) et 3 (Atténuation Technique des Risques pour les Risques Systémiques) afin de contribuer à l’élaboration du Code de bonnes pratiques pour l’Intelligence Artificielle à usage général (IAUG).
Le Code de bonnes pratiques pour l’Intelligence Artificielle à usage général constitue un cadre de corégulation volontaire développé en vertu de l’Article 56 du Règlement sur l’IA de l’UE afin de soutenir les fournisseurs de modèles d’intelligence artificielle à usage général (IAUG) dans l’alignement avec les obligations légales. Lors de sa phase de rédaction, le Code a été développé de manière collaborative par plus de 1 000 parties prenantes — incluant des développeurs d’IA, des représentants de la société civile, des universitaires, des représentants de l’industrie et des observateurs internationaux — dans le cadre d’un processus coordonné par la Commission européenne. Le Code est structuré autour de quatre groupes de travail spécialisés : le Groupe de Travail 1 traite des exigences de transparence pour tous les modèles IAUG (avec des exceptions limitées pour certains systèmes open source), tandis que les Groupes de Travail 2, 3 et 4 forment la Section Sûreté et Sécurité. Ces groupes se concentrent spécifiquement sur les modèles IAUG considérés comme présentant un risque systémique, couvrant les méthodologies d’évaluation des risques (GT2), les mesures techniques d’atténuation des risques (GT3) et les mécanismes de gouvernance (GT4). La version finale du Code de bonnes pratiques a été publiée en juillet 2025 et a été reconnue par l’Office de l’IA de l’UE et le Conseil européen de l’intelligence artificielle (Conseil de l’IA) comme un cadre volontaire adéquat pour soutenir la conformité avec le Règlement sur l’IA. Le Code est destiné à évoluer avec les développements technologiques futurs.
Cette contribution porte particulièrement sur le risque systémique, l’accessibilité et le rôle des systèmes IAUG dans les contextes d’infrastructures publiques et critiques.
Mise à jour : Fin juillet 2025, Google, Microsoft, OpenAI, Mistral AI et Anthropic ont indiqué leur intention de signer le Code de bonnes pratiques pour l’IAUG.
Thèmes connexes
Contributions aux discussions sur le Règlement sur l’IA sous l’angle des systèmes publics (OCDE)
Cadre d’Hiroshima du G7 de l’OCDE et mécanisme de rapport (OCDE)
Dialogue avec les responsables du Règlement sur l’IA (Dragos Tudorache)
Contributions au débat public sur le Règlement sur l’IA et Sommet sur le Règlement sur l’IA
Chronologie du Code de bonnes pratiques de l’UE pour l’IA à usage général
Appel initial et lancement du processus de rédaction : Juillet–Octobre 2024
Publication de la version 1 : 14 novembre 2024
Publication de la version 2 : 19 décembre 2024
Publication de la version 3 : 11 mars 2025
Code de bonnes pratiques final publié : 10 juillet 2025
Apports et propositions soumis lors du Projet 3 du Code de bonnes pratiques pour l’IAUG
Les éléments suivants reflètent les extensions et interprétations proposées de dispositions spécifiques du Règlement sur l’IA de l’UE, soumises lors de la phase du Projet 3 du Code de bonnes pratiques pour l’IA à usage général. Ces propositions visaient à éclairer le développement du Code, notamment en ce qui concerne le risque systémique, l’accessibilité et le déploiement dans les systèmes publics et critiques, et ne représentent pas des exigences juridiques finales.
Article 5(1)(b) – Exploitation des vulnérabilités Proposé d’étendre les exigences de test pour inclure une évaluation multimodale et multi-méthodes des modes d’interaction susceptibles d’exploiter involontairement des vulnérabilités cognitives, sensorielles ou émotionnelles (par exemple, les mineurs, les personnes âgées, les personnes en situation de handicap). Cela inclut des tests dans différents environnements de déploiement (cloud, dispositifs périphériques, connectivité intermittente), notamment là où les technologies d’assistance et les systèmes de sécurité publique peuvent fonctionner dans des conditions dégradées.
Article 9(9) – Évaluation des risques pour les groupes vulnérables Proposé d’élargir les méthodologies d’évaluation des risques pour capturer les impacts au niveau du système sur l’ensemble des écosystèmes de soins et d’infrastructures critiques, incluant les utilisateurs en situation de handicap, les aidants, le personnel clinique et les fournisseurs de technologies d’assistance, ainsi que les dépendances au sein des infrastructures urbaines (par exemple, transports, accès aux services d’urgence, systèmes civiques).
Article 13(3) – Transparence sur les performances du système Proposé d’introduire des rapports granulaires sur les performances du système auprès des différents groupes d’utilisateurs et interfaces, incluant les interactions avec les technologies d’assistance (par exemple, lecteurs d’écran, systèmes de communication alternative et augmentative), ainsi que les performances dans des conditions d’infrastructure perturbées ou limitées.
Article 14(5) – Supervision humaine (systèmes biométriques) Proposé d’étendre les concepts de supervision humaine vers des modèles de vérification en cascade et multi-parties prenantes dans les contextes à fort impact assistés par l’IAUG (par exemple, soins de santé, technologies d’assistance, systèmes de sécurité publique).
Article 16 – Obligations des fournisseurs (y compris la conformité aux cadres d’accessibilité de l’UE) Proposé d’étendre les considérations d’accessibilité aux environnements multi-utilisateurs et multi-dispositifs (par exemple, maisons intelligentes, systèmes de coordination des soins), et de renforcer l’interopérabilité avec les technologies d’assistance existantes et les infrastructures numériques publiques.
Article 26(7) – Obligations d’information en milieu de travail Proposé le développement de protocoles de communication accessibles (texte, audio, visuel, langage clair) pour garantir que l’utilisation des systèmes d’IA soit compréhensible pour les employés en situation de handicap et leurs structures de soutien.
Article 27 – Évaluations d’impact sur les droits fondamentaux Proposé d’élargir les méthodologies d’évaluation pour inclure les risques de dépendance, d’exclusion, de manipulation et de perte d’autonomie dans des domaines tels que les soins de santé, l’éducation et les infrastructures civiques (par exemple, systèmes de prestations, vote, permis).
Accès à la recherche – proposition de politique, non directement liée à un seul article du Règlement sur l’IA Proposé d’établir des cadres d’accès sécurisés à la recherche permettant à la société civile et au monde universitaire d’évaluer les systèmes IAUG dans des contextes réels (soins de santé, éducation, technologies d’assistance), y compris des scénarios impliquant la gestion de crise et les infrastructures publiques.
Article 50(3) – Transparence pour les systèmes biométriques et de reconnaissance des émotions Proposé d’étendre les exigences de transparence et d’explicabilité aux services médiatisés par l’IAUG, notamment là où les utilisateurs dépendent de technologies d’assistance ou intermédiaires, et dans des contextes tels que la surveillance publique ou les systèmes d’allocation des ressources.
Article 50 – Transparence de l’interaction avec les systèmes d’IA Proposé d’introduire des normes de notification multimodales (auditives, visuelles, haptiques, formats simplifiés) afin que tous les utilisateurs, y compris ceux présentant des déficiences sensorielles ou cognitives, soient informés de leurs interactions avec les systèmes d’IA.
Articles 53–55 – Obligations des modèles IAUG à risque systémique Proposé le développement d’environnements d’évaluation spécifiques aux domaines (par exemple, soins de santé, éducation, infrastructures urbaines) et d’infrastructures de test telles que des environnements de simulation ou des jumeaux numériques pour évaluer les impacts réels sur l’accessibilité, la qualité des services et la résilience.
Article 56 – Codes de bonnes pratiques Proposé le développement de protocoles de formation et d’évaluation spécifiques aux domaines dans le cadre des codes de bonnes pratiques pour l’IAUG, en particulier pour les domaines publics et d’assistance à fort impact
Article 58 – Espaces d’expérimentation réglementaire Proposé des espaces d’expérimentation dédiés pour les applications d’IAUG dans les soins de santé, l’éducation et les technologies d’assistance, visant à identifier les risques systémiques, les schémas d’exclusion et les conséquences non intentionnelles.
Capacité de l’Office de l’IA – proposition de politique Proposé de renforcer l’expertise institutionnelle en matière d’accessibilité, de vieillissement et de systèmes publics au sein des structures de gouvernance soutenant la supervision de l’IAUG.
Article 95(2)(e) – Codes de conduite et groupes vulnérables Proposé le développement de cadres d’évaluation portant sur la manipulation, l’accessibilité et les risques systémiques auprès de groupes d’utilisateurs divers, avec des mécanismes de mise à jour continue alignés sur l’évolution des technologies d’assistance et des systèmes publics.
Engagements du Code de bonnes pratiques pour l’IA à usage général (Projet 3)
Bien que les contributions suivantes visent principalement à façonner la version finale du Code de bonnes pratiques, elles soutiennent également la mise en œuvre des dispositions existantes du Règlement sur l’IA. Dans plusieurs cas, le troisième projet actuel du Code inclut déjà des engagements pertinents. Nos contributions s’appuient sur ces projets de dispositions ou les étendent.
Évaluation des Risques Systémiques (Engagement II.1) « Les signataires s’engagent à adopter et à mettre en œuvre un Cadre de Sûreté et de Sécurité […] qui détaillera l’évaluation des risques systémiques, l’atténuation des risques systémiques et les mesures d’atténuation des risques de gouvernance. » (Projet 3, Engagement II.1). Contribution : étendre les évaluations des risques systémiques pour inclure des modèles spécifiques aux domaines des écosystèmes de soins, capturant les impacts de l’IAUG sur les utilisateurs vulnérables et les infrastructures publiques.
Documentation et Performance des Technologies d’Assistance (Engagement I.1) « Les signataires s’engagent à établir et à maintenir à jour la documentation des modèles […] fournissant des informations pertinentes aux fournisseurs en aval. » (Projet 3, Engagement I.1, Mesure I.1.1). Contribution : ajout de rapports de performance granulaires sur la manière dont les modèles IAUG interagissent avec les technologies et interfaces adaptatives.
Droits d’Auteur et Accès à la Recherche (Engagement I.2) « Les signataires s’engagent à établir, maintenir à jour et mettre en œuvre une politique de droits d’auteur […] et à adopter les Mesures I.2.2–I.2.6. » (Projet 3, Engagement I.2). Contribution : ajout de mécanismes pour l’accès de la société civile et de la recherche académique aux modèles IAUG.
Interopérabilité et Rétrocompatibilité (Engagement I.1 / I.3) « Les signataires s’engagent à établir et à maintenir à jour la documentation des modèles […] fournissant des informations pertinentes aux fournisseurs en aval. » (Projet 3, Engagement I.1). Contribution : exiger la documentation de la compatibilité de l’IAUG avec les technologies d’assistance existantes et les API pour l’intégration dans des environnements publics et à ressources limitées.
Protocoles de Surveillance Humaine et d’Escalade (Engagement II.2 / II.3) « Les signataires s’engagent à mettre en œuvre des mesures de surveillance humaine appropriées pour garantir que le modèle d’intelligence artificielle à usage général à risque systémique ne pose pas de risques systémiques. » (Projet 3, Engagement II.2). Contribution : définir des rôles de surveillance humaine à plusieurs niveaux et des chaînes d’escalade pour l’IAUG dans les services publics (par exemple, soins de santé, sécurité).
Métriques d’Évaluation (Engagement III.1) « Les signataires s’engagent à évaluer et à tester les modèles d’intelligence artificielle à usage général à risque systémique conformément à des protocoles et outils standardisés. » (Projet 3, Engagement III.1). Contribution : rendre obligatoires les métriques de performance d’accessibilité désagrégées et les indicateurs d’utilisabilité civique (par exemple, latence des lecteurs d’écran, achèvement des tâches).
Préformation Spécifique au Contexte d’Assistance (Engagement I.1) « Les signataires s’engagent à établir et à maintenir à jour la documentation des modèles […] fournissant des informations pertinentes aux fournisseurs en aval. » (Projet 3, Engagement I.1). Contribution : exiger une préformation de l’IAUG sur les contextes d’assistance et de service public (par exemple, éducation inclusive, modèles d’interaction avec les technologies d’assistance).
Espaces d’Expérimentation Réglementaire et Bancs d’Essai (Article 58 du Règlement sur l’IA). Contribution : bancs d’essai spécifiques à l’IAUG dans des domaines tels que les soins de santé, l’éducation et les infrastructures urbaines.
Notifications Multimodales et Transparence (Article 50 du Règlement sur l’IA). Contribution : le Code devrait exiger des notifications auditives, visuelles et haptiques pour les interactions avec l’IA afin de garantir l’accessibilité.
Mise à jour : Bien que la version finale du Code de bonnes pratiques de l’UE pour les modèles d’intelligence artificielle à usage général ait été publiée, une opportunité cruciale demeure pour renforcer ses dispositions relatives aux infrastructures publiques et critiques et aux systèmes publics.
• • •
Références
¹ Commission européenne. "Code de bonnes pratiques pour l'IA à usage général." Façonner l'avenir numérique de l'Europe. 2024.
² Commission européenne. "Troisième Projet du Code de bonnes pratiques pour l'IA à usage général publié, rédigé par des experts indépendants." 11 mars 2025.
³ Union européenne. "Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées en matière d'intelligence artificielle (Règlement sur l'intelligence artificielle)." Journal officiel de l'Union européenne. 13 juin 2024.
⁴ Commission européenne. "Règlement sur l'IA : participez à l'élaboration du premier Code de Conduite pour l'IA à Usage Général." 30 juillet 2024.
⁵ Parlement européen et Conseil. "Directive (UE) 2016/2102 relative à l'accessibilité des sites web et des applications mobiles des organismes du secteur public." Octobre 2016.
⁶ Parlement européen et Conseil. "Directive (UE) 2019/882 relative aux exigences en matière d'accessibilité pour les produits et services (Acte européen sur l'accessibilité)." Avril 2019.