La Déclaration de Séoul et les engagements en matière de sécurité de l'IA de pointe [FR]

Disponible en : EN, FR

Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.

À la suite de la Déclaration de Séoul pour une IA sûre, innovante et inclusive, nous avons rejoint Korea AI Safety afin d'approfondir la manière dont les algorithmes peuvent alimenter les taxonomies publiques, d'assistance et d'accessibilité de manière sûre, y compris les aspects liés aux modèles et aux infrastructures critiques connexes.

Connexes

La Déclaration de Séoul sur la sécurité de l'IA, adoptée le 21 mai 2024 lors du Sommet de Séoul sur l'IA, s'appuie sur la Déclaration de Bletchley de l'année précédente. Signée par les dirigeants de 10 pays et de l'Union européenne, elle souligne la nécessité d'une collaboration internationale pour garantir un développement sûr, innovant et inclusif de l'intelligence artificielle (IA). La déclaration souligne l'importance d'une IA centrée sur l'humain et conforme à l'état de droit. Elle préconise également de réduire la fracture numérique et de renforcer la coopération mondiale afin de relever les défis et de saisir les opportunités liés à l'IA.

Parmi les principaux résultats du Sommet de Séoul figure la création d'un réseau international d'instituts de sécurité de l'IA. Ce réseau rassemble des organisations du Royaume-Uni, des États-Unis, du Japon, de France, d'Allemagne, d'Italie, de Singapour, de Corée du Sud, d'Australie, du Canada et de l'Union européenne. Son objectif est de promouvoir la collaboration en matière de recherche sur la sécurité, de partager les meilleures pratiques et de développer des ressources techniques pour faire progresser la sécurité de l'IA.

Un autre résultat est l'introduction des Frontier AI Safety Commitments (engagements en matière de sécurité de l'IA de pointe). Seize entreprises mondiales spécialisées dans l'IA, dont Amazon, Google, Meta, Microsoft, Anthropic et OpenAI, se sont engagées à définir et à divulguer les « risques intolérables » posés par les systèmes d'IA avancés. Ces engagements se concentrent sur des domaines clés tels que la cybersécurité, l'autonomie des modèles et les perturbations sociétales. Les entreprises ont promis de publier des cadres de sécurité décrivant leurs stratégies de gestion des risques, qui comprennent l'amélioration de la transparence, la mise en place d'équipes rouges internes et externes et l'encouragement des rapports de vulnérabilité par des tiers. Ces efforts représentent une étape importante vers une gestion proactive des risques et l'établissement de normes mondiales pour le développement d'une IA sûre.

Engagements en matière de sécurité de l'IA de pointe

La déclaration est complétée par les engagements en matière de sécurité de l'IA de pointe, un ensemble d'engagements volontaires pris par les principales organisations d'IA afin de gérer les risques graves associés aux modèles d'IA puissants et polyvalents.

Évaluation rigoureuse des risques : les entreprises s'engagent à évaluer les dommages potentiels avant et pendant la formation et avant le déploiement de leurs modèles d'IA. Cela implique à la fois des tests internes et des évaluations externes.

Définition et gestion des risques « intolérables » : un engagement crucial consiste à établir des seuils clairs pour les risques graves et inacceptables. Si ces seuils sont atteints et que les mesures d'atténuation sont insuffisantes, les organisations s'engagent à ne pas développer ni déployer le modèle.

Gouvernance robuste et transparence : cela implique la mise en place de cadres de sécurité internes solides, la publication de rapports sur les progrès réalisés, la collaboration avec des experts externes pour le « red-teaming » (tests de résistance de l'IA), le renforcement de la cybersécurité et le partage sélectif d'informations sur les capacités et les risques des modèles.

Sécurité de l'IA et systèmes publics

Nos contributions et notre participation au débat public ont notamment porté sur la manière dont les engagements en matière de sécurité de l'IA de pointe peuvent être affinés afin de s'aligner sur un ensemble de protocoles et une taxonomie des systèmes publics et d'assistance, en mettant l'accent à la fois sur les modèles d'IA fondamentaux et appliqués tels que les grands modèles linguistiques (LLM), les petits modèles linguistiques (SLM), les modèles vision-langage (VLM) et les nouveaux modèles de fondation 3D, ainsi que sur les capacités multimodales. Ces modèles sont essentiels pour les technologies d'assistance, les soins de santé et les contextes publics. Les instituts de sécurité de l'IA doivent structurer leurs efforts et leurs capacités afin d'englober un large éventail de systèmes et d'interfaces, de la robotique d'assistance aux outils d'accessibilité. Une attention particulière doit être accordée aux bacs à sable réglementaires et aux bancs d'essai qui simulent les conditions réelles, afin de garantir la sécurité et l'accessibilité des modèles d'IA. Par exemple, les systèmes d'IA d'assistance, tels que les appareils à commande vocale ou les aides à la mobilité, doivent être soumis à des tests de conformité dans ces environnements afin de garantir leur fonctionnement en toute sécurité, en particulier lorsqu'ils interagissent avec des utilisateurs présentant divers handicaps cognitifs, sensoriels ou physiques.

Les modèles d'IA de pointe doivent être évalués sur la base de facteurs techniques essentiels tels que les besoins en données, la puissance de calcul, l'électricité et la cyber-résilience dans tous les secteurs. Cette évaluation doit également tenir compte de l'impact pratique sur les zones publiques à haut risque telles que les lieux de travail, les soins de santé et l'éducation. Les risques et les seuils doivent être définis par des applications concrètes, et non pas uniquement par des capacités théoriques. Par exemple, le déploiement d'un modèle de fondation 3D dans les technologies d'assistance ou les soins de santé nécessite une évaluation rigoureuse de sa robustesse, afin d'éviter toute utilisation abusive. Enfin, faisant écho à l'avis du public, les développeurs d'IA devraient divulguer les évaluations de sécurité avant et après atténuation afin de fournir une image plus claire de l'efficacité de leurs stratégies de gestion des risques.

• • •

Références

¹ Gouvernement britannique. « Déclaration de Séoul pour une IA sûre, innovante et inclusive par les participants à la session des dirigeants : Sommet de Séoul sur l'IA, 21 mai 2024 ». GOV.UK. 21 mai 2024.

² Gouvernement britannique. « Déclaration d'intention de Séoul en faveur d'une coopération internationale sur la science de la sécurité de l'IA, Sommet de Séoul sur l'IA 2024 (annexe) ». GOV.UK. 21 mai 2024.

³ Gouvernement britannique. « Engagements en matière de sécurité de l'IA de pointe, Sommet de Séoul sur l'IA 2024 ». GOV.UK. 21 mai 2024.

⁴ Gouvernement britannique. « Déclaration ministérielle de Séoul pour faire progresser la sécurité, l'innovation et l'inclusivité de l'IA : Sommet de Séoul sur l'IA 2024 ». GOV.UK. 22 mai 2024.

⁵ Centre d'études stratégiques et internationales. « Le Sommet de Séoul sur l'IA ». 15 octobre 2024.

⁶ Institut économique coréen d'Amérique. « Engagements majeurs pris lors du Sommet de Séoul sur l'IA ». 29 mai 2024.