Pacte sur l'IA et prochaines étapes de mise en œuvre du Règlement sur l'IA : accès et systèmes publics [FR]
Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.
Nous participerons à la prochaine session de l'Office de l'IA consacrée au Pacte sur l'intelligence artificielle (IA), dédiée à l'interaction intersectorielle sur la mise en œuvre de politiques d'IA à la fois souveraines et centrées sur l'humain. Cette session fait écho à notre contribution au Code de conduite relatif aux modèles d'IA à usage général.
Chronologie de la mise en œuvre du Règlement sur l'intelligence artificielle (Règlement sur l'IA)
Le calendrier de mise en œuvre du Règlement sur l'IA est essentiel pour comprendre la portée et le rythme de son déploiement :
1er août 2024 : Entrée en application du Règlement sur l'IA
Février 2025 : Entrée en application des chapitres I (Dispositions générales) et II (Systèmes d'IA interdits)
Août 2025 : Entrée en application du chapitre III section 4 (Autorités notifiantes), du chapitre V (Modèles d'IA à usage général), du chapitre VII (Gouvernance), du chapitre XII (Confidentialité et sanctions), et de l'article 78 (Confidentialité), à l'exception de l'article 101 (Amendes pour les fournisseurs d'IA à usage général)
Août 2026 : Entrée en application de l'ensemble du Règlement sur l'IA, à l'exception de l'article 6(1) et des obligations correspondantes (une des catégories de systèmes d'IA à haut risque)
Août 2027 : Entrée en application de l'article 6(1) et des obligations correspondantes
Pacte sur l'IA
Le Pacte européen sur l'IA représente un engagement volontaire de plus de 100 organisations (passant à environ 200 fin 2024) à mettre en œuvre les principes du Règlement européen sur l'IA avant son application juridique obligatoire. Cette coalition englobe des développeurs d'IA, des organismes publics et des fournisseurs d'infrastructures numériques travaillant de manière proactive à l'établissement de pratiques responsables en matière d'IA. Bien qu'il ne remplace pas les obligations contraignantes du Règlement sur l'IA lui-même, le Pacte vise à accélérer l'adoption précoce et favorise la confiance entre les secteurs. Les signataires s'engagent à développer des stratégies globales de gouvernance de l'IA, à identifier les systèmes d'IA à haut risque dans leurs opérations, et à promouvoir la littératie en IA et les pratiques éthiques parmi leur personnel.
Le Pacte fonctionne selon deux piliers clés : encourager les organisations à partager de manière transparente leurs engagements volontaires pour répondre aux exigences de l'IA à haut risque, et collecter et publier systématiquement ces engagements pour faciliter la redevabilité. Ce cadre permet l'engagement entre l'Office européen de l'IA et diverses parties prenantes — y compris l'industrie, les organisations de la société civile et les institutions académiques.
Contributions et débats antérieurs
Suggestions au Règlement sur l'IA sous l'angle de l'accessibilité (OCDE)
Référentiel et rapport sur l'adoption des technologies d'assistance (OCDE)
Cadre d'Hiroshima du G7 de l'OCDE et mécanisme de rapport (OCDE)
Dialogue avec les responsables du Règlement sur l'IA (Dragos Tudorache)
Débat public sur le Règlement sur l'IA, Sommet sur le Règlement sur l'IA
Code de conduite relatif aux modèles d'IA à usage général (Groupes de travail 2, 3)
Comment le Règlement sur l'IA traite les systèmes publics et les contextes vulnérables
Le texte final du Règlement sur l'IA comprend désormais plusieurs points de contact faisant référence directement au handicap, à la dépendance, à l'âge et à d'autres vulnérabilités sociales. Les dispositions clés comprennent :
Articles
Article 5, paragraphe 1, point b) - Interdit l'IA qui exploite les vulnérabilités :
« la mise sur le marché, la mise en service ou l'utilisation d'un système d'IA qui exploite l'une des vulnérabilités d'une personne physique ou d'un groupe spécifique de personnes en raison de leur âge, de leur handicap ou d'une situation sociale ou économique spécifique... d'une manière qui cause ou est raisonnablement susceptible de causer... un préjudice significatif ; »
Article 9, paragraphe 9 - Exige une évaluation des risques pour les enfants et les groupes vulnérables :
« ...les fournisseurs examinent si, eu égard à l'usage prévu, le système d'IA à haut risque est susceptible d'avoir un impact négatif sur les personnes de moins de 18 ans et, le cas échéant, sur d'autres groupes vulnérables. »
Article 13, paragraphe 3 - Exigences de transparence pour des groupes spécifiques :
« ...ses performances à l'égard de personnes ou de groupes de personnes spécifiques pour lesquels le système est destiné à être utilisé ; »
Article 14, paragraphe 5 - Supervision humaine spéciale pour les systèmes d'identification biométrique :
« ...aucune action ou décision n'est prise par le déployeur sur la base de l'identification résultant du système sauf si cette identification a été vérifiée et confirmée séparément par au moins deux personnes physiques... »
Article 16, point l) - Exigences d'accessibilité pour les fournisseurs :
« ...veillent à ce que le système d'IA à haut risque soit conforme aux exigences d'accessibilité conformément aux Directives (UE) 2016/2102 et (UE) 2019/882. »
Article 26, paragraphe 7 - Obligation d'informer les travailleurs :
"Avant la mise en service ou l'utilisation d'un système d'IA à haut risque sur le lieu de travail, les déployeurs qui sont des employeurs informent les représentants des travailleurs et les travailleurs concernés..."
Article 27 - Évaluation de l'impact sur les droits fondamentaux :
"...les déployeurs procèdent à une évaluation de l'impact sur les droits fondamentaux que l'utilisation d'un tel système peut produire."
Article 50, paragraphe 3 - Transparence pour la reconnaissance des émotions et la catégorisation biométrique :
"Les déployeurs d'un système de reconnaissance des émotions ou d'un système de catégorisation biométrique informent les personnes physiques exposées à celui-ci du fonctionnement du système..."
Article 95, paragraphe 2, point e) - Codes de conduite pour les personnes vulnérables :
"...évaluer et prévenir l'impact négatif des systèmes d'IA sur les personnes vulnérables ou les groupes de personnes vulnérables, y compris en ce qui concerne l'accessibilité pour les personnes handicapées, ainsi que sur l'égalité entre les sexes."
Considérants
Considérant 29 - Exploitation de la vulnérabilité dans les pratiques manipulatrices de l'IA :
"Les systèmes d'IA peuvent également exploiter d'une autre manière les vulnérabilités d'une personne... en raison de leur âge, de leur handicap... ou d'une situation sociale ou économique spécifique... comme les personnes vivant dans l'extrême pauvreté, les minorités ethniques ou religieuses."
Considérant 48 - Considération spéciale pour les enfants :
"...les enfants ont des droits spécifiques... qui exigent la prise en considération des vulnérabilités des enfants et la fourniture de la protection et des soins nécessaires à leur bien-être."
Considérant 56 - Éducation et groupes vulnérables :
"...les systèmes d'IA utilisés dans l'éducation ou la formation professionnelle... peuvent être particulièrement intrusifs et peuvent violer le droit à l'éducation... et perpétuer des schémas historiques de discrimination, par exemple contre les femmes, certains groupes d'âge, les personnes handicapées, ou les personnes d'une certaine origine raciale ou ethnique ou orientation sexuelle."
Considérant 57 - Vulnérabilités liées à l'emploi :
"Les systèmes d'IA utilisés dans l'emploi... devraient également être classés comme à haut risque, car ces systèmes peuvent avoir un impact appréciable sur les perspectives de carrière futures, les moyens de subsistance de ces personnes et les droits des travailleurs."
Considérant 58 - Vulnérabilités dans les services publics :
"...les personnes physiques demandant ou recevant des prestations d'aide publique essentielles... dépendent généralement de ces prestations et services et sont dans une position vulnérable par rapport aux autorités responsables."
Considérant 80 - Convention des Nations Unies relative aux droits des personnes handicapées :
"...l'Union et les États membres sont juridiquement obligés de protéger les personnes handicapées contre la discrimination... de garantir que les personnes handicapées aient accès, sur une base d'égalité avec les autres, aux technologies de l'information et de la communication... et de garantir le respect de la vie privée des personnes handicapées."
Considérant 132 - Considérations d'accessibilité pour les groupes vulnérables :
"...les personnes physiques devraient être informées qu'elles interagissent avec un système d'IA... Lors de la mise en œuvre de cette obligation, les caractéristiques des personnes physiques appartenant à des groupes vulnérables en raison de leur âge ou de leur handicap devraient être prises en compte..."
Annexe III, point 3 - L'éducation comme domaine à haut risque :
"Systèmes d'IA destinés à être utilisés pour déterminer l'accès ou l'admission... pour évaluer le niveau d'éducation approprié... ou pour surveiller et détecter les comportements interdits des étudiants..."
Annexe III, point 4 - L'emploi à haut risque :
"Systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques... pour prendre des décisions affectant les conditions des relations liées au travail... pour surveiller et évaluer la performance et le comportement des personnes..."
Annexe III, point 5 - Accès aux services essentiels à haut risque :
"Systèmes d'IA destinés à être utilisés par les autorités publiques... pour évaluer l'éligibilité des personnes physiques aux prestations et services d'aide publique essentiels, y compris les services de santé..."
Cette ampleur est importante. Elle reflète le fait que le préjudice est contextuel — pas simplement technologique. Le même algorithme, lorsqu'il est appliqué à une plateforme d'admission scolaire ou à une agence pour l'emploi, peut produire des conséquences entièrement différentes pour différentes personnes.
Littératie en IA et mise en œuvre ultérieure
L'accent notable du Pacte sur l'IA porte sur la littératie et le partage des connaissances, renforçant l'Article 4 du Règlement européen sur l'IA, consacré à la littératie en IA : "Les fournisseurs et déployeurs de systèmes d'IA prennent des mesures pour garantir, dans la mesure du possible, un niveau suffisant de littératie en IA de leur personnel et des autres personnes s'occupant de l'exploitation et de l'utilisation des systèmes d'IA pour leur compte."
Les progrès ultérieurs devraient porter sur la surveillance de la façon dont les organisations du Pacte sur l'IA interprètent les normes "volontaires", en garantissant une mise en œuvre précoce par le biais de bacs à sable réglementaires qui soutiennent les systèmes et infrastructures d'intérêt public, et en renforçant l'interopérabilité avec les cadres européens complémentaires et la législation numérique plus large.
• • •
Références
¹ Union européenne. "Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées en matière d'intelligence artificielle (Règlement sur l'intelligence artificielle)." Journal officiel de l'Union européenne. 13 juin 2024.
² Commission européenne. "Pacte sur l'IA." Façonner l'avenir numérique de l'Europe. 2024.
³ Parlement européen et Conseil. "Directive (UE) 2016/2102 sur l'accessibilité des sites web et des applications mobiles des organismes du secteur public." Octobre 2016.
⁴ Parlement européen et Conseil. "Directive (UE) 2019/882 sur les exigences en matière d'accessibilité des produits et services (Acte européen sur l'accessibilité)." Avril 2019.
⁵ Nations Unies. "Convention relative aux droits des personnes handicapées." Article 9 – Accessibilité. 2006.
⁶ Commission européenne. "Plus d'une centaine d'entreprises signent le Pacte européen sur l'IA pour promouvoir un développement digne de confiance et sûr de l'IA." Communiqué de presse IP/24/4864. 25 septembre 2024.