世界卫生组织:大型多模态模型指南 [ZH]
本页面为原始英文文章的翻译版本。请注意,导航功能仍仅提供英文。
我们为世界卫生组织关于大型多模态模型(LMMs)治理的综合指南提供了意见。该指南针对生成式人工智能的子集——大型多模态模型在医疗保健领域的应用,基于世卫组织2021年人工智能伦理框架制定,旨在协助成员国评估大型多模态模型的影响,并为其伦理、安全和公平部署制定监管路径。
相关链接
总统科技顾问委员会:生成式人工智能工作组(更新版)
关键数据与洞察
大型多模态模型(LMMs)创下史上最快的技术普及纪录,ChatGPT于两个月内(2023年1月)用户数突破一亿。这类模型可处理并生成文本、图像、音频、视频等多类型数据,已在临床护理、教育、文书工作及科研领域开展试点。部分大型多模态模型通过美国医师执照考试,但在数据代表性不足的场景中表现仍存在波动。
训练数据集在医疗应用领域展现出庞大规模与多样性:既有基于3万余份医疗病例报告训练的模型,也有依托10万余张胸部X光片及数百万份电子健康记录构建的系统。性能评估结果呈现差异化趋势——2023年美国研究显示,在分析某在线医疗论坛的195个案例时,约80%的用户更倾向ChatGPT的响应而非医生回复。
风险概述
准确性:研究显示幻觉率为3-27%,具体取决于提示词和模型。
偏见:训练数据常过度代表高收入地区;例如基因数据集倾向于欧洲裔人群。
自动化偏见:医生可能过度依赖人工智能输出,导致临床错误风险。
环境影响:大型多模态模型显著增加碳足迹和水足迹,引发可持续性担忧。
劳动力影响带来多重挑战。大型多模态模型可能取代部分医疗岗位,同时催生新技能需求与再培训计划。该技术可能导致低薪且心理压力大的数据劳动环境。患者自主权面临特殊风险:知情同意流程受损及认知不公问题,边缘群体承受不成比例的脆弱性。
治理框架
世卫组织建议在人工智能生命周期各阶段采取结构化行动:开发→提供→部署。
开发阶段——责任划分
开发者
开展数据保护影响评估
纳入多元利益相关方
优化能源效率
确保训练数据透明度
政府
制定强有力的数据保护法规
强制实施预认证与基于结果的标准
资助开源大型多模态模型项目
落实碳足迹与水足迹问责机制
提供阶段:政府应指定监管审批机构,要求第三方审计及源代码与数据输入的透明度,适用消费者保护法,并禁止未经监管的非试验性实验使用。
部署阶段:部署方(如政府部门、医院)必须避免在不适宜环境中使用大型多模态模型,公开风险沟通,确保公平定价与语言可及性,并对专业人员进行大型多模态模型局限性、网络安全及伦理使用培训。
世卫组织框架基于六项核心伦理原则:保护自主权、促进福祉与安全、确保透明度与可解释性、强化问责机制、保障包容性与公平性、推动可持续发展。为加强用户保护,指南建议各国政府考虑采用严格责任制度、无过错赔偿机制及因果关系推定,以降低救济门槛。世卫组织进一步呼吁建立公平的国际治理体系,通过网络化多边主义模式,不仅让高收入国家与企业参与,更应吸纳中低收入国家、民间社会及多边机构共同参与。
• • •
参考文献
¹ 世界卫生组织。《健康领域人工智能伦理与治理:大型多模态模型指南》。日内瓦:世卫组织;2024年。ISBN: 978-92-4-008475-9.
² 世界卫生组织。"世卫组织发布大型多模态模型人工智能伦理与治理指南。" 2024年1月18日。
³ 世界卫生组织。《健康领域人工智能伦理与治理:世卫组织指南》。日内瓦:世卫组织;2021年。ISBN: 978-92-4-003419-8.
⁴ 世界卫生组织。"世卫组织发布首份全球健康领域人工智能报告及六项设计使用指导原则。" 2021年6月28日。
⁵ WHO IRIS(信息共享机构库)。"健康领域人工智能伦理与治理。" 2021年。
⁶ 世界卫生组织首席科学家及科学司健康伦理与治理处。《健康领域人工智能伦理与治理:大型多模态模型指南》。2024年。
⁷ 美国国家生物技术信息中心,公共医学图书馆。《大型多模态模型——医学人工智能的当下还是未来?》PMC10915764。2024年3月。
⁸ 《自然数字医学》。"全球健康人工智能倡议(GI-AI4H):推动联合国治理体系发展的战略重点。" 2025年。
⁹ 美国国家生物技术信息中心,PMC。"推进医疗健康领域人工智能的伦理考量:解析日本创新型人工智能医院系统的伦理问题。" PMC10390248。2023年。