《布莱切利宣言》与人工智能安全 [ZH]

阅读语言ENZH

页面为原始英文文章翻译版本。请注意,导航功能仍仅提供英文。

我们参与了关于《布莱切利宣言》的公开征集与公众讨论,旨在进一步拓展多利益相关方对人工智能安全议题的视野,并引入具体案例与应用场景,涵盖公共及关键基础设施、医疗保健、教育,以及辅助技术与无障碍技术等领域。

《布莱切利宣言》是一项具有里程碑意义的国际协议,于2023年11月1日在英国布莱切利公园举行的AI安全峰会上签署。该宣言获得了28个国家——包括美国、中国及欧盟成员国——以及欧盟本身的认可,确立了各方对人工智能(AI)安全与负责任发展的共同承诺,重点关注“前沿AI”系统——即具有潜在重大社会影响的高性能通用模型。

相关

《宣言》的原则与目标

  • 以人为本且负责任的AI:该宣言强调,AI的设计、开发、部署和使用应确保安全、以人为本、值得信赖且负责任。

  • 风险认知:该宣言承认,前沿AI模型最强大的能力可能造成严重甚至灾难性的危害,无论是通过蓄意滥用还是意外后果。

  • 国际合作:签署方一致认为,应对这些风险的最佳途径是开展国际合作,目标是建立对AI风险的共同科学认知与循证理解,并制定基于风险的政策以确保安全。

  • 平衡创新与监管:该宣言强调,应采取支持创新且相称的治理与监管方法,在有效应对相关风险的同时,最大限度地发挥人工智能的效益。

公众讨论

通过公共系统与关键基础设施的视角,我们重点强调了以下方面:

  • 场景与相关性:强调关注AI实际用例与应用场景的重要性,正如我们对经合组织(OECD)AI安全工具库及事件数据库的贡献所示。AI安全与治理必须植根于真实经验和具体部署实践。

  • 开放获取与透明度:倡导对公共及辅助技术库的开放获取,不仅涵盖应用程序,还应包括底层模型与基础设施。我们对经合组织辅助技术库的贡献,体现了这一对可及性与透明度的承诺。

  • 风险评估:呼吁开展全面且具有包容性的风险评估,明确将未成年人、患者、护理人员及其他弱势群体纳入考量——这些群体在现行监管框架中常遭忽视。

  • 地理与社会经济背景:强调在实施和评估人工智能系统时,必须考量不同地区的社会经济模式与历史背景,以确保治理措施具有全球普适性。

  • 前沿模型中的软硬件考量:建议采用整体性方法评估前沿AI模型——如大型语言模型(LLMs)、视觉语言模型(VLMs)和3D基础模型——将支撑性硬件生态系统纳入考量范围,包括公共及辅助基础设施中使用的传感器和触觉接口。

  • 训练环境与监管沙盒:支持开发融合软硬件组件的现实世界跨学科训练环境。此类环境应包含测试床和监管沙盒,以便在受控但贴近现实的条件下安全地开发、测试和验证AI系统。

  • 多模态无障碍标准:提议实施标准化的多模态通知与通信系统(例如听觉、视觉、触觉及简化文字提示),以确保AI系统对存在感官或认知障碍的用户同样可及。

  • 人类监督与问责:建议针对AI辅助技术——尤其是影响用户自主性或关键决策的系统——建立层级式人类监督协议,包括跨利益相关方的多级验证流程,以确保可靠性与安全性。

  • 关键环境测试床:鼓励建立特定领域的测试床,模拟医院、学校和居家养老设施等关键服务场景,以评估AI系统对服务可及性、服务质量及用户自主权的实际影响。

  • 民间社会的研究访问权:倡导建立安全透明的研究访问框架,允许民间社会组织和独立研究人员在真实场景中研究AI系统,并为弱势用户提供专项保护。

通过签署《布莱切利宣言》公开信,我们重申致力于以多种互补方式深化全球在人工智能安全与无障碍性领域的对话。我们倡导协调新兴治理框架——例如美国国家标准与技术研究院(NIST)的AI风险管理框架、ISO/IEC标准以及欧盟《人工智能法案》——同时强调,有效的监督必须整合多利益相关方的视角与方法论。通过将技术标准与以人为本的设计相融合,并在AI生命周期各环节嵌入无障碍设计理念,我们可以确保前沿模型不仅能够有效降低风险,更能积极拓展那些最需要辅助技术群体的能力边界。这种综合性方法对于确保人工智能在每个社区和情境中均能促进人类尊严、自主权与无障碍访问至关重要。

• • •

参考文献

¹ 英国政府。《2023年11月1日至2日参加人工智能安全峰会的各国签署的〈布莱切利宣言〉》。GOV.UK。2023年11月1日。

² 英国政府。《2023年布莱切利公园AI安全峰会主席总结》。GOV.UK。2023年11月2日。

³ 美国国家标准与技术研究院(NIST)。《人工智能风险管理框架(AI RMF 1.0)》。NIST AI.100-1。2023年1月26日。

⁴ 国际标准化组织(ISO)。《ISO/IEC 23894:2023——信息技术·人工智能·风险管理指南》。2023年。

⁵ 经合组织AI中心(OECD.AI)。《AI事件监测平台(AIM)——全球AI事件与风险数据库》。2023年。

⁶ 经合组织(OECD)。《人工智能事件及相关术语的定义》。经济合作与发展组织。2024年。