NIST: 生成AIプロファイル(AI 600-1)およびAIリスク管理フレームワーク(AI RMF)[JA]
このページは英語の原文記事の翻訳です。なお、ナビゲーションは英語のみで提供されていますのでご了承ください。
我々は、米国国立標準技術研究所(NIST)のフレームワーク「人工知能リスク管理フレームワーク:生成型人工知能プロファイル」(NIST AI 600-1)に対して意見を提供した。
NIST AI 600-1は、NIST AIリスク管理フレームワーク(AI RMF)の補完リソースであり、特に生成AI(GAI)に焦点を当てている。本文書は、サイバーセキュリティの脆弱性、誤情報、倫理的懸念など、GAIに関連する固有のリスクを組織が特定、管理、軽減することを支援することを目的としている。本文書では12の主要リスクを概説し、AI RMFにマッピングされた200以上の対策を提示している。
関連情報
NIST AIリスク管理フレームワーク(AI RMF 1.0)
2023年1月26日に公開されたNIST AIリスク管理フレームワーク(AI RMF 1.0)は、AIシステムの設計・開発・利用・評価に信頼性に関する考慮事項を組み込むための自主的ガイダンスを提供する。民間企業、学術界、市民社会、政府から240以上の貢献組織が参加し、18か月にわたる合意形成プロセスを経て開発された本フレームワークは、個人、組織、社会に対するAI関連リスクを管理するための体系的なアプローチを確立する。
本フレームワークは、AIライフサイクル管理の異なる段階に対応する4つのコア機能を通じて運用される。GOVERN機能は、組織全体のAIリスク管理プロセスに適用され、AIガバナンスのためのポリシー、手順、組織構造を確立する。MAP、MEASURE、MANAGEの各機能は、システム固有の文脈とライフサイクル段階を対象とし、リスクの特定、評価、軽減戦略に関する運用上のガイダンスを提供する。
中核フレームワーク構造:
GOVERN:AIリスク管理のための組織的方針と手順
MAP:AIシステムにおけるリスク特定と文脈確立
MEASURE:性能評価と信頼性評価手法
MANAGE:リスク優先順位付けと軽減策実施戦略
本フレームワークは、規制義務ではなくソフトパワーアプローチを活用し、組織規模・ユースケース・リスクプロファイルへの適応を可能にする柔軟性メカニズムを組み込む。NISTは2028年までに正式見直しを実施し、バージョン2.0を策定する可能性があり、反復的開発プロセスを通じたコミュニティフィードバックを半期ごとの更新に反映させる。
生成AIプロファイル(NIST AI 600-1)
2024年7月26日に公開されたNIST AI 600-1は、AI RMFの分野横断的補完資料として機能し、特にバイデン大統領の大統領令14110に基づき生成型人工知能システムに対処する。本ガイダンスは、開発者やその他のAI関係者がリスク管理のために実施できる12のリスクと200以上の推奨措置のリストを中心に構成され、全産業分野で生成AI技術を管理する組織向けの専門的指針を提供する。
12のリスクには、サイバー攻撃の参入障壁低下、誤情報・偽情報・ヘイトスピーチその他の有害コンテンツの生成、生成AIシステムによる不正確または誤解を招く出力(「虚構生成」と呼ばれる現象)が含まれる。本プロファイルは、サイバーセキュリティ脆弱性からコンテンツ真正性課題に至る技術的・運用的・社会的懸念に対処し、対策はAI RMFフレームワーク構造に直接対応している。
主要な生成AIリスクカテゴリー:
サイバー攻撃の障壁と脆弱性
虚偽または誤解を招くコンテンツを生成する虚構生成(幻覚)
危険・暴力的・憎悪的なコンテンツの生成と拡散
不正開示や匿名化解除によるデータプライバシーへの影響
代表性のない訓練データに起因する有害なバイアスと均質化
システム信頼性に影響する人間とAIの連携課題
知的財産権侵害と無断コンテンツ複製
意思決定プロセスに影響する情報完全性の侵害
わいせつ・侮辱的・虐待的コンテンツ生成リスク
計算資源消費による環境持続可能性への影響
開発および展開フェーズにわたるバリューチェーン統合の脆弱性
モデル保護とデータ処理における情報セキュリティのギャップ
本プロファイルは、開発および展開プロセス全体を通じたリスク評価手法、継続的テスト要件、およびマルチステークホルダーからのフィードバック統合を強調している。各リスクを説明した後、文書はAI RMFにマッピングされた、AI関係者がそのリスクを軽減するために取ることができる推奨される行動のマトリクスを提示している。
関連するNISTセキュリティフレームワーク
NIST SP 800-53 セキュリティ制御の統合
NIST SP 800-53 リビジョン5は、連邦情報システム向けの包括的なセキュリティおよびプライバシー制御を提供し、保護策を低・中・高影響レベルの20の制御ファミリーに分類している。本フレームワークは、AIシステムセキュリティ実装に適用可能なアクセス制御、監査と説明責任、構成管理、インシデント対応、システム通信保護の要件を扱う。
AIシステム実装には、機械学習システムの固有特性を扱う確立されたサイバーセキュリティ制御との統合が求められる。制御ファミリーには、人的セキュリティ、物理的・環境的保護、計画戦略、プログラム管理、リスク評価、セキュリティ評価認可プロセスが含まれる。AIシステムを導入する組織は、アルゴリズムリスク管理を従来の情報セキュリティ制御構造と整合させる必要がある。
セキュアソフトウェア開発フレームワーク拡張
NIST特別刊行物800-218Aは、悪意あるトレーニングデータの影響やシステムコードとデータの境界の曖昧化といった固有の課題に対処するため、AIモデル開発に特化したセキュアソフトウェア開発フレームワーク(SSDF)を補完する。本補完リソースは、安全な生成AIおよびデュアルユース基盤モデル開発実践に関する大統領令14110の要件を支援する。
本フレームワークは、組織レベル、モデルレベル、ソフトウェアプログラミングのセキュリティ対策を推奨し、開発ライフサイクル全体を通じてトレーニングデータの完全性とモデルセキュリティに対処する堅牢な脆弱性評価・対応システムを確立する。
実装指標と標準統合
生成AIプロファイルは12のリスクカテゴリーにわたり211の具体的アクションを提供し、組織要件とリスク許容度に基づくカスタマイズされた実装を可能にする。AI RMFプレイブックは、コミュニティフィードバックを通じて年2回程度更新される実践的ガイダンスを提供し、半年ごとにコメントをレビュー・統合することで多様な運用環境におけるフレームワーク採用を支援する。
最近の動向としては、米国AI安全研究所コンソーシアムによる自主報告アプローチの取り組みがあり、NIST AIリスク管理フレームワーク生成AIプロファイル向けの自主報告テンプレート(VRT)を通じて組織がリスク管理データを共有する方法に関する重要な知見が得られている。同コンソーシアムは290以上の加盟企業・組織で構成され、生成AIリスク管理、合成コンテンツ、評価、レッドチーム活動、モデルの安全性とセキュリティを含む5つの主要分野で活動している。
NISTは、連邦AI標準調整を通じ、ISO/IEC 5338、ISO/IEC 38507、ISO/IEC 22989、ISO/IEC 24028、ISO/IEC 42001、ISO/IEC 42005などの国際標準との整合性を調整している。今後の開発優先事項は、人間とAIの構成、説明可能性手法、フレームワーク有効性測定アプローチを対象とし、ケーススタディ開発やセクター固有の実装リソースを含む。
NIST AIフレームワークエコシステムは、組織的文脈を超えた体系的なリスク管理インフラを確立し、イノベーション支援的な実装の柔軟性を維持しつつ、拡張可能な技術ガバナンスアプローチを提供する。
• • •
参考文献
¹ 米国国立標準技術研究所。「人工知能リスク管理フレームワーク(AI RMF 1.0)」NIST AI 100-1. 2023年1月26日.
² 米国国立標準技術研究所. 「人工知能リスク管理フレームワーク:生成型人工知能プロファイル(AI 600-1)」NIST AI 600-1. 2024年7月26日.
³ 米国国立標準技術研究所. 「情報システム及び組織のためのセキュリティ及びプライバシー管理」. NIST特別刊行物800-53、改訂版5. 2020年9月.
⁴ 米国国立標準技術研究所. 「セキュアソフトウェア開発フレームワーク(SSDF)バージョン1.1:ソフトウェア脆弱性リスク軽減のための推奨事項」. NIST特別刊行物800-218A. 2024年2月.
⁵ 米国国立標準技術研究所. 「AI RMFプレイブック」. 2024年.
⁶ 米国AI安全研究所コンソーシアム。「NIST AIリスク管理フレームワーク生成AIプロファイル向け自主報告テンプレート」。2025年。
⁷ 国際標準化機構。「ISO/IEC 42001:情報技術 — 人工知能 — マネジメントシステム」。2023年。
⁸ 国際標準化機構. 「ISO/IEC 22989: 情報技術 — 人工知能 — 概念と用語」. 2022年.
⁹ 国際標準化機構. 「ISO/IEC 24028: 情報技術 — 人工知能 — 人工知能における信頼性の概要」. 2021年.