Déclaration de Paris sur la sécurité et l'action en matière d'IA [FR]

Disponible en : EN, FR

Cette page est une traduction de l’article original en anglais. Veuillez noter que la navigation reste disponible uniquement en anglais.

À la suite des déclarations de Séoul et de Bletchley, nous avons contribué au débat public du Sommet de Paris sur l'action en matière d'IA (notamment la lettre, initiée par Renaissance Numérique) et à la déclaration qui s'y rapporte. Au cours du sommet, nous avons présenté certaines parties du MOOC, consacré à l'IA centrée sur l'accessibilité, et avons assisté à deux rapports et consultations publiques auxquels nous avons contribué : le cadre de reporting du processus du G7 sur l'IA de Hiroshima (HAIP) soutenu par l'OCDE (1) et le rapport The Future Society.

Connexes

Dans le prolongement des déclarations de Bletchley et de Séoul, le Sommet de Paris a réuni plus de 1 000 participants de plus de 100 pays, parmi lesquels des chefs de gouvernement, des organisations internationales, des représentants de la société civile, du secteur privé et du monde universitaire. Contrairement à ses prédécesseurs, qui mettaient fortement l'accent sur les risques liés à la sécurité, le sommet de Paris s'est concentré sur l'accélération des opportunités économiques et la mise en œuvre pratique de l'IA, tout en abordant un éventail plus large de risques, notamment l'impact sur l'énergie et l'environnement, ainsi que les implications sur le marché du travail. Cela s'est reflété dans le résultat clé du sommet, la « Déclaration sur une intelligence artificielle inclusive et durable pour les personnes et la planète ».

Cette déclaration, signée par 58 pays (un fait notable étant donné que les États-Unis et le Royaume-Uni ne l'ont pas signée), énonce des principes généraux tels que la promotion de l'accessibilité de l'IA, la réduction de la fracture numérique, la garantie de l'éthique et de la fiabilité des systèmes d'IA, la promotion de l'innovation tout en évitant la concentration du marché, l'influence positive sur les marchés du travail et la durabilité de l'IA. Elle a notamment souligné la nécessité pour l'IA de servir « l'intérêt public de tous, pour tous et par tous ».

De Séoul à Paris : déclaration et engagements

Bien qu'ils s'appuient sur les résultats d'engagements antérieurs, le sommet et la déclaration ont marqué un tournant notable, passant d'initiatives et d'engagements axés sur les « risques » à des projets davantage axés sur les « opportunités » :

Réseau international des instituts de sécurité de l'IA : créé à Séoul, ce réseau (qui comprend le Royaume-Uni, les États-Unis, le Japon, l'UE et d'autres pays) vise à favoriser la collaboration en matière de recherche sur la sécurité et de bonnes pratiques. Après Paris, sa cohésion est remise en question en raison des priorités divergentes de certains pays (par exemple, les États-Unis et le Royaume-Uni se concentrent sur la sécurité des frontières, tandis que la France donne la priorité à des applications plus larges de l'IA).

Engagements en matière de sécurité de l'IA de pointe : des entreprises telles qu'Amazon, Google et Microsoft se sont engagées à Séoul à définir les « risques intolérables » et à publier des cadres de sécurité d'ici Paris. De nouveaux engagements ont été pris autour du sommet de Paris, mais une critique notable a été l'absence de progrès concrets et unifiés sur les seuils de risque communs et les mécanismes de responsabilité des entreprises.

Rapport scientifique international sur la sécurité de l'IA avancée : commandé à Bletchley, sa version finale (rédigée par 96 experts) a été publiée le 29 janvier 2025. Présenté à Paris, certains critiques ont estimé que ses conclusions scientifiques sur les risques liés à l'IA avaient été minimisées au profit d'un discours favorable à l'innovation.

Initiatives lancées à Paris

Current AI Foundation : un nouveau partenariat d'intérêt public dans le domaine de l'IA, doté d'une dotation initiale de 400 millions de dollars et d'un objectif de financement de 2,5 milliards d'euros sur cinq ans. Il vise à développer des modèles d'IA ouverts et régis par des règles éthiques pour le bien public (par exemple, des ensembles de données sur la santé et l'éducation).

InvestAI (initiative de l'UE) : lancée par la Commission européenne, cette initiative publique-privée de 200 milliards d'euros comprend 20 milliards d'euros pour quatre « gigafactories d'IA » à travers l'Europe (opérationnelles d'ici 2027-2028), ce qui permettra d'augmenter la puissance de calcul pour le développement de l'IA en Europe.

Observatoires sur l'impact de l'IA sur le travail et l'emploi : un nouveau réseau (réunissant 11 pays) visant à comprendre les effets de l'IA sur les marchés de l'emploi, les lieux de travail et l'éducation.

Coalition pour une IA durable : un partenariat mondial de 91 membres (37 entreprises technologiques, 10 pays, organisations internationales) dirigé par la France, le PNUE et l'UIT, qui se concentre sur la mesure et la réduction de l'empreinte carbone de l'IA.

Observatoire mondial sur l'énergie, l'IA et les centres de données (AIE) : annoncé par l'AIE, son lancement est prévu le 10 avril 2025 afin de collecter des données sur les besoins en électricité de l'IA et de suivre les applications dans le secteur de l'énergie.

Sélection de 50 projets innovants en matière d'IA : le Forum de Paris sur la paix a présenté 50 projets (sur 770 candidatures provenant de 111 pays) axés sur diverses applications, allant de l'aide aux malvoyants aux ODD.

Nos discussions ont porté spécifiquement sur les taxonomies des systèmes publics et d'assistance, englobant à la fois les logiciels et les modèles tels que les modèles de langage visuel (VLM), ainsi que le matériel sous-jacent. Cela inclut les composants qui sous-tendent les technologies d'assistance et de rééducation complexes, tels que les capteurs (par exemple, l'EMG pour le contrôle des prothèses, Lidar pour la navigation, IMU pour l'analyse de la démarche), les éléments haptiques (par exemple, les actionneurs vibrotactiles pour les alertes, le retour de force pour la rééducation) et les actionneurs et effecteurs (par exemple, les moteurs électriques pour les exosquelettes robotiques, les pinces souples pour la manipulation, les alliages à mémoire de forme pour les dispositifs adaptatifs).

• • •

Références

¹ Gouvernement français. « Déclaration sur une intelligence artificielle inclusive et durable pour les personnes et la planète ». Sommet sur l'action en matière d'IA à Paris. 11 février 2025.

² Gouvernement britannique. « Rapport scientifique international sur la sécurité de l'IA avancée : principes et procédures ». GOV.UK. 29 janvier 2025.

³ Center for Strategic and International Studies. « Sommet français sur l'action en matière d'IA ». 20 février 2025.

⁴ The Future Society. « Le Sommet de Paris sur l'action en matière d'IA a-t-il répondu aux priorités des citoyens et des experts ? » 28 février 2025.

⁵ Ministère australien de l'Industrie, des Sciences et des Ressources. « L'Australie signe la déclaration du Sommet de Paris sur l'action en matière d'IA ». 16 février 2025.

⁶ Atlantic Council. « Au Sommet d'action sur l'IA de Paris, les pays du Sud se soulèvent ». 13 février 2025.

⁷ Anthropic. « Déclaration de Dario Amodei sur le Sommet d'action sur l'IA de Paris ». Février 2025.