Pacte sur l’IA et prochaines étapes de mise en œuvre du Règlement sur l’IA : accès et systèmes publics [FR]

Disponible en : EN, FR

Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.

Nous participerons à la prochaine session de l’Office de l’IA consacrée au Pacte sur l’intelligence artificielle (IA), dédiée à l’interaction intersectorielle sur la mise en œuvre de politiques d’IA à la fois souveraines et centrées sur l’humain. Cette session fait écho à notre contribution au Code de conduite relatif aux modèles d’IA à usage général.

‍ ‍

Chronologie de la mise en œuvre du Règlement sur l’intelligence artificielle (Règlement sur l’IA)

Le calendrier de mise en œuvre du Règlement sur l’IA est essentiel pour comprendre la portée et le rythme de son déploiement (les dates reflètent le calendrier tel qu’établi dans le texte juridique original et peuvent être sujettes à ajustement).

Mise à jour (2026) :Les discussions en cours au niveau européen sur la simplification « Omnibus » pourraient ajuster le calendrier de certaines obligations liées aux systèmes d’IA à haut risque, en les alignant plus étroitement sur la disponibilité des normes et des outils de mise en œuvre.

  • 1er août 2024 : Entrée en application du Règlement sur l’IA

  • Février 2025 : Entrée en application des chapitres I (Dispositions générales) et II (Systèmes d’IA interdits)

  • Août 2025 : Entrée en application des dispositions relatives aux autorités notifiantes, aux modèles d’IA à usage général, à la gouvernance et à l’application (notamment le chapitre III section 4, le chapitre V, le chapitre VII et le chapitre XII, certaines sanctions s’appliquant à une étape ultérieure).

  • Août 2026 : La majeure partie du Règlement devient applicable (à l’exception de l’article 6(1) et des obligations correspondantes pour certains systèmes à haut risque)

  • Août 2027 : Application intégrale, y compris l’article 6(1)

Pacte sur l’IA

Le Pacte européen sur l’IA représente un engagement volontaire de plus de 100 organisations (dont la participation continue de s’élargir) à mettre en œuvre les principes du Règlement européen sur l’IA avant son application juridique obligatoire. Cette coalition englobe des développeurs d’IA, des organismes publics et des fournisseurs d’infrastructures numériques travaillant de manière proactive à l’établissement de pratiques responsables en matière d’IA. Bien qu’il ne remplace pas les obligations contraignantes du Règlement sur l’IA lui-même, le Pacte vise à accélérer l’adoption précoce et favorise la confiance entre les secteurs. Les signataires s’engagent à développer des stratégies globales de gouvernance de l’IA, à identifier les systèmes d’IA à haut risque dans leurs opérations, et à promouvoir la littératie en IA et les pratiques éthiques parmi leur personnel.

Le Pacte fonctionne selon deux piliers clés : encourager les organisations à partager de manière transparente leurs engagements volontaires pour répondre aux exigences de l’IA à haut risque, et collecter et publier systématiquement ces engagements pour faciliter la redevabilité. Ce cadre permet l’engagement entre l’Office européen de l’IA et diverses parties prenantes — y compris l’industrie, les organisations de la société civile et les institutions académiques.

‍ ‍

Contributions et débats antérieurs

‍ ‍

Comment le Règlement sur l’IA traite les systèmes publics et les contextes vulnérables

Le texte final du Règlement sur l’IA comprend désormais plusieurs points de contact faisant référence directement au handicap, à la dépendance, à l’âge et à d’autres vulnérabilités sociales. Les dispositions clés comprennent :

Articles

  • Article 5(1)(b) - Interdit l’IA qui exploite les vulnérabilités :

« la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui exploite l’une des vulnérabilités d’une personne physique ou d’un groupe spécifique de personnes en raison de leur âge, de leur handicap ou d’une situation sociale ou économique spécifique… d’une manière qui cause ou est raisonnablement susceptible de causer… un préjudice significatif ; »

  • Article 9(9) - Exige une évaluation des risques pour les enfants et les groupes vulnérables :

« …les fournisseurs examinent si, eu égard à l’usage prévu, le système d’IA à haut risque est susceptible d’avoir un impact négatif sur les personnes de moins de 18 ans et, le cas échéant, sur d’autres groupes vulnérables. »

  • Article 13(3) - Exigences de transparence pour des groupes spécifiques :

« …ses performances à l’égard de personnes ou de groupes de personnes spécifiques pour lesquels le système est destiné à être utilisé ; »

  • Article 14(5) - Supervision humaine spéciale pour les systèmes d’identification biométrique :

« …aucune action ou décision n’est prise par le déployeur sur la base de l’identification résultant du système sauf si cette identification a été vérifiée et confirmée séparément par au moins deux personnes physiques… »

  • Article 16(1) - Exigences d’accessibilité pour les fournisseurs :

« …veillent à ce que le système d’IA à haut risque soit conforme aux exigences d’accessibilité conformément aux Directives (UE) 2016/2102 et (UE) 2019/882. »

  • Article 26(7) - Obligation d’informer les travailleurs :

« Avant la mise en service ou l’utilisation d’un système d’IA à haut risque sur le lieu de travail, les déployeurs qui sont des employeurs informent les représentants des travailleurs et les travailleurs concernés… »

  • Article 27 - Évaluation de l’impact sur les droits fondamentaux :

« …les déployeurs procèdent à une évaluation de l’impact sur les droits fondamentaux que l’utilisation d’un tel système peut produire. »

  • Article 50(3) - Transparence pour la reconnaissance des émotions et la catégorisation biométrique :

« Les déployeurs d’un système de reconnaissance des émotions ou d’un système de catégorisation biométrique informent les personnes physiques exposées à celui-ci du fonctionnement du système… »

  • Article 95(2)(e) - Codes de conduite pour les personnes vulnérables :

« …évaluer et prévenir l’impact négatif des systèmes d’IA sur les personnes vulnérables ou les groupes de personnes vulnérables, y compris en ce qui concerne l’accessibilité pour les personnes handicapées, ainsi que sur l’égalité entre les sexes. »

Considérants

  • Considérant 29 - Exploitation de la vulnérabilité dans les pratiques manipulatrices de l’IA :

« Les systèmes d’IA peuvent également exploiter d’une autre manière les vulnérabilités d’une personne… en raison de leur âge, de leur handicap… ou d’une situation sociale ou économique spécifique… comme les personnes vivant dans l’extrême pauvreté, les minorités ethniques ou religieuses. »

  • Considérant 48 - Considération spéciale pour les enfants :

« …les enfants ont des droits spécifiques… qui exigent la prise en considération des vulnérabilités des enfants et la fourniture de la protection et des soins nécessaires à leur bien-être. »

  • Considérant 56 - Éducation et groupes vulnérables :

« …les systèmes d’IA utilisés dans l’éducation ou la formation professionnelle… peuvent être particulièrement intrusifs et peuvent violer le droit à l’éducation… et perpétuer des schémas historiques de discrimination, par exemple contre les femmes, certains groupes d’âge, les personnes handicapées, ou les personnes d’une certaine origine raciale ou ethnique ou orientation sexuelle. »

  • Considérant 57 - Vulnérabilités liées à l’emploi :

« Les systèmes d’IA utilisés dans l’emploi… devraient également être classés comme à haut risque, car ces systèmes peuvent avoir un impact appréciable sur les perspectives de carrière futures, les moyens de subsistance de ces personnes et les droits des travailleurs. »

  • Considérant 58 - Vulnérabilités dans les services publics :

« …les personnes physiques demandant ou recevant des prestations d’aide publique essentielles… dépendent généralement de ces prestations et services et sont dans une position vulnérable par rapport aux autorités responsables. »

  • Considérant 80 - Référence à la Convention des Nations Unies relative aux droits des personnes handicapées :

Met en évidence les obligations de l’Union et des États membres en matière de non-discrimination, d’accessibilité et de protection des personnes handicapées, notamment en ce qui concerne l’accès aux technologies de l’information et de la communication.

  • Considérant 132 - Considérations d’accessibilité pour les groupes vulnérables :

« …les personnes physiques devraient être informées qu’elles interagissent avec un système d’IA… Lors de la mise en œuvre de cette obligation, les caractéristiques des personnes physiques appartenant à des groupes vulnérables en raison de leur âge ou de leur handicap devraient être prises en compte… »

Annexe III

  • Annexe III, point 3 - L’éducation comme domaine à haut risque :

« Systèmes d’IA destinés à être utilisés pour déterminer l’accès ou l’admission… pour évaluer le niveau d’éducation approprié… ou pour surveiller et détecter les comportements interdits des étudiants… »

  • Annexe III, point 4 - L’emploi à haut risque :

« Systèmes d’IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques… pour prendre des décisions affectant les conditions des relations liées au travail… pour surveiller et évaluer la performance et le comportement des personnes… »

  • Annexe III, point 5 - Accès aux services essentiels à haut risque :

« Systèmes d’IA destinés à être utilisés par les autorités publiques… pour évaluer l’éligibilité des personnes physiques aux prestations et services d’aide publique essentiels, y compris les services de santé… »

Le préjudice est contextuel, et pas seulement technologique. Un même algorithme, appliqué à une plateforme d’admission scolaire ou à une agence pour l’emploi, peut produire des conséquences entièrement différentes pour différents groupes de personnes.

Littératie en IA et mise en œuvre ultérieure

L’accent notable du Pacte sur l’IA porte sur la littératie et le partage des connaissances, renforçant l’Article 4 du Règlement européen sur l’IA : « Les fournisseurs et déployeurs de systèmes d’IA prennent des mesures pour garantir, dans la mesure du possible, un niveau suffisant de littératie en IA de leur personnel et des autres personnes s’occupant de l’exploitation et de l’utilisation des systèmes d’IA pour leur compte. » Les progrès ultérieurs devraient porter sur la surveillance de la façon dont les organisations du Pacte sur l’IA interprètent les normes « volontaires », en garantissant une mise en œuvre précoce par le biais de bacs à sable réglementaires qui soutiennent les systèmes et infrastructures d’intérêt public, et en renforçant l’interopérabilité avec les cadres européens complémentaires et la législation numérique plus large.

‍ ‍

• • •

Références

¹ Union européenne. "Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées en matière d'intelligence artificielle (Règlement sur l'intelligence artificielle)." Journal officiel de l'Union européenne. 13 juin 2024.

² Commission européenne. "Pacte sur l'IA." Façonner l'avenir numérique de l'Europe. 2024.

³ Parlement européen et Conseil. "Directive (UE) 2016/2102 sur l'accessibilité des sites web et des applications mobiles des organismes du secteur public." Octobre 2016.

⁴ Parlement européen et Conseil. "Directive (UE) 2019/882 sur les exigences en matière d'accessibilité des produits et services (Acte européen sur l'accessibilité)." Avril 2019.

⁵ Nations Unies. "Convention relative aux droits des personnes handicapées." Article 9 – Accessibilité. 2006.

⁶ Commission européenne. "Plus d'une centaine d'entreprises signent le Pacte européen sur l'IA pour promouvoir un développement digne de confiance et sûr de l'IA." Communiqué de presse IP/24/4864. 25 septembre 2024.