La Déclaration de Bletchley et la sécurité de l'IA [FR]

Disponible en : EN, FR

Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.

Nous avons contribué à l'appel ouvert et au débat public sur la Déclaration de Bletchley, qui vise à élargir davantage la vision multipartite sur la sécurité de l'IA, à présenter des cas et des scénarios, notamment dans les domaines des infrastructures publiques et critiques, des soins de santé, de l'éducation, des technologies d'assistance et d'accessibilité.

La Déclaration de Bletchley est un accord international historique signé le 1er novembre 2023 lors du Sommet sur la sécurité de l'IA qui s'est tenu à Bletchley Park, au Royaume-Uni. Approuvée par 28 pays, dont les États-Unis, la Chine et les membres de l'Union européenne, ainsi que par l'UE elle-même, la déclaration établit un engagement commun en faveur d'un développement sûr et responsable de l'intelligence artificielle (IA), en mettant particulièrement l'accent sur les systèmes d'« IA de pointe », qui sont des modèles polyvalents très performants pouvant avoir un impact sociétal important.

Connexes

Principes et objectifs de la déclaration

Une IA centrée sur l'humain et responsable : la déclaration souligne que l'IA doit être conçue, développée, déployée et utilisée de manière sûre, centrée sur l'humain, fiable et responsable.

Reconnaissance des risques : elle reconnaît le potentiel de dommages graves, voire catastrophiques, liés aux capacités les plus importantes des modèles d'IA de pointe, qu'il s'agisse d'une utilisation abusive délibérée ou de conséquences involontaires.

Coopération internationale : les signataires conviennent que la meilleure façon de faire face à ces risques est de mettre en place une collaboration internationale visant à établir une compréhension commune, fondée sur des données scientifiques et factuelles, des risques liés à l'IA et à élaborer des politiques fondées sur les risques afin de garantir la sécurité.

Équilibre entre innovation et réglementation : la déclaration souligne l'importance d'une approche de gouvernance et de réglementation favorable à l'innovation et proportionnée, qui maximise les avantages de l'IA tout en traitant les risques qui y sont associés.

Débat public

À travers le prisme des systèmes publics et des infrastructures critiques, nous avons mis en évidence :

Scénarios et pertinence : souligner l'importance de se concentrer sur les cas d'utilisation et les applications réels de l'IA, comme l'illustrent nos contributions aux outils de sécurité de l'IA et aux registres d'accidents de l'OCDE. La sécurité et la gouvernance de l'IA doivent être fondées sur des expériences vécues et des déploiements concrets.

Accès ouvert et transparence : plaider en faveur d'un accès ouvert aux registres des technologies publiques et d'assistance, y compris non seulement les applications, mais aussi les modèles et les infrastructures sous-jacents. Notre contribution au référentiel de l'OCDE sur les technologies d'assistance reflète cet engagement en faveur de l'accessibilité et de la transparence.

Évaluations des risques : appeler à des évaluations des risques complètes et inclusives qui tiennent explicitement compte des mineurs, des patients, des aidants et d'autres populations vulnérables, des groupes souvent négligés dans les cadres réglementaires actuels.

Contexte géographique et socio-économique : souligner l'importance de prendre en compte les modèles socio-économiques et les contextes historiques des différentes régions lors de la mise en œuvre et de l'évaluation des systèmes d'IA, afin de garantir une gouvernance pertinente à l'échelle mondiale.

Considérations relatives aux logiciels et au matériel dans les modèles de pointe : recommander une approche holistique pour évaluer les modèles d'IA de pointe, tels que les grands modèles linguistiques (LLM), les modèles vision-langage (VLM) et les modèles de fondation 3D, en incluant les écosystèmes matériels de soutien, notamment les capteurs et les interfaces haptiques utilisés dans les infrastructures publiques et d'assistance.

Environnements de formation et bacs à sable réglementaires : soutenir le développement d'environnements de formation interdisciplinaires et concrets qui intègrent à la fois des composants logiciels et matériels. Ceux-ci devraient inclure des bancs d'essai et des bacs à sable réglementaires afin de développer, tester et valider en toute sécurité les systèmes d'IA dans des conditions contrôlées mais réalistes.

Normes d'accessibilité multimodales : proposer la mise en œuvre de systèmes de notification et de communication multimodaux normalisés (par exemple, des signaux auditifs, visuels, haptiques et textuels simplifiés) afin de garantir que les systèmes d'IA soient accessibles aux utilisateurs souffrant de déficiences sensorielles ou cognitives.

Supervision humaine et responsabilité : recommander des protocoles de supervision humaine en cascade pour les technologies d'assistance basées sur l'IA, en particulier celles qui influencent l'autonomie ou les décisions critiques. Cela inclut des processus de vérification à plusieurs niveaux entre les parties prenantes afin de garantir la fiabilité et la sécurité.

Bancs d'essai en environnement critique : encourager la création de bancs d'essai spécifiques à un domaine qui reproduisent les paramètres des services essentiels, tels que les hôpitaux, les écoles et les établissements pour personnes âgées, afin d'évaluer les impacts réels sur l'accès, la qualité du service et l'autonomie des utilisateurs.

Accès à la recherche pour la société civile : plaider en faveur de cadres d'accès à la recherche sûrs et transparents qui permettent aux organisations de la société civile et aux chercheurs indépendants d'étudier les systèmes d'IA dans des scénarios réels, avec des protections spéciales pour les utilisateurs vulnérables.

En signant la lettre ouverte de la Déclaration de Bletchley, nous réaffirmons notre engagement à renforcer le dialogue mondial sur la sécurité et l'accessibilité de l'IA grâce à une multitude d'approches complémentaires. Nous plaidons en faveur de l'harmonisation des cadres de gouvernance émergents, tels que le Cadre de gestion des risques liés à l'IA du NIST, les normes ISO/IEC et la Loi européenne sur l'IA, tout en soulignant qu'une surveillance efficace doit intégrer les perspectives et les méthodologies de multiples parties prenantes. En conciliant les normes techniques avec une conception centrée sur l'humain et en intégrant l'accessibilité tout au long du cycle de vie de l'IA, nous pouvons garantir que les modèles de pointe non seulement atténuent les risques, mais élargissent aussi activement les capacités de ceux qui ont le plus besoin de technologies d'assistance. Cette approche intégrée est essentielle pour garantir que l'IA favorise la dignité humaine, l'autonomie et l'accès équitable dans toutes les communautés et tous les contextes.

• • •

Références

¹ Gouvernement britannique. « Déclaration de Bletchley des pays participant au Sommet sur la sécurité de l'IA, 1er et 2 novembre 2023 ». GOV.UK. 1er novembre 2023.

² Gouvernement britannique. « Résumé du président du Sommet sur la sécurité de l'IA 2023, Bletchley Park ». GOV.UK. 2 novembre 2023.

³ NIST. « Cadre de gestion des risques liés à l'intelligence artificielle (AI RMF 1.0) ». NIST AI.100-1. Institut national des normes et de la technologie. 26 janvier 2023.

⁴ Organisation internationale de normalisation. « ISO/IEC 23894:2023 - Technologies de l'information — Intelligence artificielle — Lignes directrices sur la gestion des risques ». 2023.

⁵ OECD.AI. « AI Incidents Monitor (AIM) - Plateforme mondiale sur les incidents et les risques liés à l'IA ». 2023.

⁶ OCDE. « Définition des incidents liés à l'IA et des termes connexes ». Organisation de coopération et de développement économiques. 2024.