OCDE : Cadre de reporting du processus du G7 Hiroshima sur l'IA (HAIP) [FR]
Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.
Nous avons apporté notre contribution au groupe de travail et appelé à la création du cadre de reporting (HAIP) du processus du G7 Hiroshima sur l'IA, soutenu par l'OCDE (1). Il a été présenté lors du Paris AI Action Summit, où nous avons présenté certaines parties du MOOC, consacré à l'IA centrée sur l'accessibilité, et assisté à deux rapports et consultations publiques auxquels nous avons contribué.
Ce cadre de reporting est le résultat direct du G7 Hiroshima AI Process, lancé sous la présidence japonaise du G7 en 2023 et poursuivi sous la présidence italienne du G7 en 2024. Il s'appuie sur le Code de conduite international du Hiroshima AI Process pour les organisations développant des systèmes d'IA avancés, une initiative historique visant à favoriser la transparence et la responsabilité dans le développement de systèmes d'IA avancés. À la demande du G7, et conformément à la Déclaration de Trente, l'OCDE a été chargée d'identifier des mécanismes permettant de contrôler l'adoption volontaire du code.
Connexes
Rapport et référentiel de l'OCDE - IA et capacité dans le domaine du travail
Référentiel d'outils de l'OCDE - IA centrée sur les capacités (1, 2, 3, 4)
Le processus de Hiroshima sur l'IA du G7
Le processus de Hiroshima sur l'IA répond à la nécessité d'établir des principes et des pratiques communs pour régir les systèmes d'IA avancés, en particulier les modèles de base et l'IA générative. Ce processus s'appuie sur les principes de l'OCDE en matière d'IA et vise à codifier des pratiques fondées sur les risques et conformes aux droits de l'homme dans le développement, l'utilisation et le déploiement de l'IA.
Les principes d'Hiroshima comprennent 11 domaines clés allant de l'atténuation des risques tout au long du cycle de vie, à la surveillance post-déploiement, à la transparence et aux contrôles de sécurité, en passant par l'utilisation responsable de l'IA pour relever les défis mondiaux tels que la santé, le climat et l'éducation. Ces principes sont conçus comme un cadre vivant et adaptable, élaboré grâce à la contribution d'un large éventail de parties prenantes.
Le cadre de reporting HAIP
Le cadre de reporting HAIP est un outil de reporting volontaire conçu pour aider les organisations à documenter et à divulguer leurs mesures d'atténuation des risques, leurs protocoles de sécurité, leurs mécanismes de gouvernance et leurs pratiques en matière de transparence.
Les principales caractéristiques du cadre de reporting HAIP sont les suivantes :
Couverture complète des domaines de gouvernance de l'IA, garantissant l'alignement sur les meilleures pratiques internationales.
Reporting transparent sur les capacités du système, ses limites et les scénarios d'utilisation abusive.
Documentation des politiques de gouvernance, de la gestion des données et de la surveillance des incidents après la mise sur le marché.
Mécanismes de provenance et d'authentification du contenu, y compris le filigrane numérique lorsque cela est possible.
Données de mise en œuvre de la phase pilote
La phase pilote, menée du 19 juillet au 6 septembre 2024, a généré des commentaires substantiels de la part de 20 organisations issues de 10 pays : Canada, Danemark, Allemagne, Israël, Japon, Pays-Bas, Espagne, Suisse, Royaume-Uni et États-Unis. Les entités participantes allaient des grandes entreprises technologiques aux start-ups, englobant des développeurs de systèmes d'IA, des sociétés technologiques mondiales, des instituts de recherche, des établissements universitaires et des cabinets de conseil en conformité IA.
Résumé des conclusions de la phase pilote :
14 organisations ont demandé la consolidation des questions répétitives afin de rationaliser les processus de reporting
13 organisations ont demandé des options de formatage améliorées, notamment des puces et des hyperliens
12 organisations ont demandé des instructions plus claires pour les enquêtes, avec des limites de mots et des exemples
9 répondants ont demandé des explications sur des termes clés ambigus, notamment « systèmes d'IA avancés », « risques déraisonnables » et « incidents significatifs ».
6 organisations ont suggéré une meilleure harmonisation avec les mécanismes de déclaration volontaire existants (Engagements en matière de sécurité de l'IA de pointe, Engagements volontaires de la Maison-Blanche sur l'IA)
Principes de gouvernance et exigences techniques
Le cadre impose une évaluation complète des risques tout au long du cycle de vie de l'IA, exigeant des organisations qu'elles mettent en œuvre diverses mesures de test internes et externes indépendantes, y compris des méthodologies de red teaming. Les spécifications techniques comprennent des contrôles de sécurité robustes englobant la sécurité physique, la cybersécurité et les mesures de protection contre les menaces internes pour les poids des modèles, les algorithmes, les serveurs et les ensembles de données.
Principaux engagements techniques :
Mécanismes d'authentification et de provenance du contenu grâce à des techniques de filigrane et d'identification
Systèmes de traçabilité pour les ensembles de données, les processus et les décisions de développement
Rapports de transparence pour toutes les versions importantes de systèmes d'IA avancés
Protocoles de partage responsable des informations entre l'industrie, le gouvernement, la société civile et le monde universitaire
Collaboration avec les organismes de normalisation (SDO) pour l'élaboration de normes techniques internationales
Cadre d'atténuation et de surveillance des risques
Les organisations doivent établir des politiques de gouvernance fondées sur les risques, comprenant des mesures de protection de la vie privée et une surveillance post-déploiement pour l'identification des vulnérabilités, l'analyse des incidents et la détection des utilisations abusives. Le cadre interdit les systèmes d'IA qui portent atteinte aux valeurs démocratiques, nuisent aux communautés, facilitent le terrorisme, permettent des activités criminelles ou présentent des risques importants pour la sûreté et la sécurité, conformément au droit international des droits de l'homme et aux Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l'homme.
Coordination internationale et élaboration de normes
L'initiative fait progresser les normes techniques internationales grâce à l'OCDE, au Partenariat mondial sur l'IA (GPAI) et à la collaboration entre les différentes parties prenantes. Les juridictions conservent une certaine souplesse dans la mise en œuvre tout en adhérant aux principes fondamentaux de surveillance. Business at OECD (BIAC) approuve le cadre pour l'interopérabilité réglementaire, la collaboration transfrontalière et l'accès transparent à la technologie IA dans toutes les juridictions.
Protection des données et développement éthique de l'IA
Le cadre exige une gestion de la qualité des données, y compris la supervision des données de formation afin d'atténuer les biais préjudiciables, avec des obligations de transparence pour les ensembles de données dans le cadre des cadres juridiques applicables. Le développement prioritaire cible les défis mondiaux (crise climatique, santé, éducation) et soutient les objectifs de développement durable des Nations unies grâce à une gestion responsable et centrée sur l'humain de l'IA et à la promotion de la culture numérique.
Calendrier de mise en œuvre et état d'avancement
Le cadre de reporting opérationnel a été lancé le 7 février 2025, lors du Sommet sur l'IA à Paris, le premier cycle de reporting devant être soumis avant le 15 avril 2025 et la publication prévue pour juin 2025.
Les principaux développeurs d'IA, notamment Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce et Softbank Corp., se sont engagés à participer au cadre inaugural. Les soumissions devraient être rendues publiques par l'OCDE via une plateforme de transparence désignée, à l'exclusion de toute information commercialement sensible.
Ce cadre complet représente un consensus international sur la gouvernance avancée de l'IA, établissant des mécanismes de responsabilité mesurables tout en conservant des approches favorables à l'innovation pour le développement et le déploiement de technologies émergentes dans divers contextes organisationnels et cadres juridictionnels. Cette initiative illustre comment la coopération internationale peut favoriser les progrès en matière de gouvernance de l'IA, en créant des attentes standardisées en matière de transparence et de pratiques de gestion des risques à l'échelle mondiale.
• • •
Références
¹ Organisation de coopération et de développement économiques. « Processus d'Hiroshima du G7 sur l'IA : Code de conduite international pour les organisations développant des systèmes d'IA avancés ». OCDE. 2023.
² Organisation de coopération et de développement économiques. « HAIP : Cadre de reporting du processus d'Hiroshima sur l'IA ». OCDE. 2024.
³ G7 Italie. « Déclaration ministérielle sur le processus d'Hiroshima sur l'IA et les résultats du dialogue de Trente ». Présidence italienne du G7. 2024.
⁴ Observatoire des politiques de l'OCDE. « Cadre de l'OCDE pour la classification des systèmes d'IA ». OCDE. 2022.
⁵ Observatoire des politiques de l'OCDE. « Principes de l'OCDE en matière d'IA : Recommandation du Conseil sur l'intelligence artificielle ». OCDE. 2019.
⁶ Organisation de coopération et de développement économiques. « Résumé de la phase pilote du cadre de reporting HAIP ». OCDE. 2025.