ブレッチリー宣言とAI安全 [JA]
このページは英語の原文記事の翻訳です。なお、ナビゲーションは英語のみで提供されていますのでご了承ください。
私たちはブレッチリー宣言に関する公開呼びかけと公的議論に参画しました。この宣言は、AI安全に関するマルチステークホルダーの視点をさらに拡大し、公共・重要インフラ、医療、教育、支援技術・アクセシビリティ技術などの分野における事例やシナリオを提示することを目的としています。
ブレッチリー宣言は、2023年11月1日に英国ブレッチリー・パークで開催されたAI安全サミットにおいて署名された画期的な国際合意です。米国、中国、欧州連合(EU)加盟国を含む28カ国およびEU自体が支持するこの宣言は、特に「フロンティアAI」システム(高度な汎用モデルで、重大な社会的影響を及ぼす可能性のあるもの)に焦点を当て、人工知能(AI)の安全かつ責任ある開発に向けた共通の取り組みを確立するものです。
関連情報
ソウル宣言とフロンティアAI安全に関するコミットメント
AI協定とAI法の実施に向けた次のステップ:アクセスと公共システム
汎用AI行動規範(ワーキンググループ2、3)
宣言の原則と目的
人間中心の責任あるAI:この宣言は、AIは、安全で、人間中心、信頼性が高く、責任ある方法で設計、開発、導入、使用されるべきであることを強調しています。
リスクの認識:意図的な悪用や意図しない結果を通じて、最先端のAIモデルの最も重要な機能によって、深刻な、さらには壊滅的な被害が生じる可能性があることを認識しています。
国際協力:署名者は、AIのリスクについて科学的かつ証拠に基づく共通認識を構築し、安全性を確保するためのリスクベースの政策を策定することを目指し、これらのリスクに国際協力によって最善に対処できることに合意しています。
イノベーションと規制のバランス:この宣言は、AIのメリットを最大限に引き出しながら、関連するリスクに対処する、イノベーションを促進する、かつ均衡の取れたガバナンスおよび規制アプローチの重要性を強調しています。
公的議論
公共システムと重要インフラの観点から、以下の点を強調しています。
シナリオと関連性:OECD AI安全ツールおよび事故リポジトリへの貢献が示すように、AIの実際のユースケースとアプリケーションに焦点を当てることの重要性を強調します。AI安全性とガバナンスは、実体験と具体的な導入事例に基づくものでなければなりません。
オープンアクセスと透明性:アプリケーションだけでなく、その基盤となるモデルやインフラストラクチャも含め、公共技術および支援技術のリポジトリへのオープンアクセスを提唱します。OECD支援技術リポジトリへの貢献は、アクセシビリティと透明性へのこの取り組みを反映しています。
リスク評価:未成年者、患者、介護者、その他の脆弱な集団(現行規制枠組みでしばしば見落とされるグループ)を明示的に考慮した包括的かつ包摂的なリスク評価を要請します。
地理的・社会経済的文脈:AIシステムの実装と評価において、異なる地域にわたる社会経済的パターンと歴史的文脈を考慮することの重要性を強調し、グローバルに適切なガバナンスを確保します。
フロンティアモデルにおけるソフトウェア・ハードウェアの考慮:大規模言語モデル(LLM)、視覚言語モデル(VLM)、3D基盤モデルなどのフロンティアAIモデルを評価する包括的アプローチを推奨します。公共・支援インフラで使用されるセンサーや触覚インターフェースを含む、支援ハードウェアエコシステムを評価対象に含めることが重要です。
トレーニング環境と規制サンドボックス:ソフトウェアとハードウェアの両コンポーネントを統合した、現実世界の学際的トレーニング環境の開発を支援します。これには、制御されたが現実的な条件下でAIシステムを安全に開発・試験・検証するためのテストベッドと規制サンドボックスを含めるべきです。
マルチモーダルアクセシビリティ基準:感覚障害や認知障害を持つユーザーがAIシステムを利用できるよう、標準化されたマルチモーダル通知・通信システム(例:聴覚、視覚、触覚、簡略化されたテキストによる合図)の導入を提案します。
人間の監視と説明責任:AI搭載支援技術、特に自律性や重大な意思決定に影響を与えるものに対して、段階的な人間の監視プロトコルを推奨します。信頼性と安全性を確保するため、関係者間での多段階検証プロセスを含みます。
重要環境テストベッド:病院、学校、在宅高齢者施設など、必須サービス環境を再現する分野特化型テストベッドの構築を促進し、アクセス性、サービス品質、ユーザーの自律性に対する実世界での影響を評価します。
市民社会のための研究アクセス:市民社会組織や独立研究者が実世界シナリオでAIシステムを研究できる、安全かつ透明性の高い研究アクセス枠組みを提唱します。脆弱なユーザーに対する特別な保護措置を伴うものとします。
ブレッチリー宣言公開書簡への署名を通じ、私たちは多様な補完的アプローチによるAI安全性・アクセシビリティに関する国際対話の強化を再確認します。NISTのAIリスク管理フレームワーク、ISO/IEC規格、EU AI法など新興ガバナンス枠組みの調和を提唱すると同時に、効果的な監視には多様なステークホルダーの視点と手法の統合が不可欠であることを強調します。技術基準と人間中心設計を結びつけ、AIライフサイクル全体にアクセシビリティを組み込むことで、最先端モデルがリスクを軽減するだけでなく、支援技術を最も必要とする人々の能力を積極的に拡大することを保証できます。この統合的アプローチは、あらゆるコミュニティと文脈において、AIが人間の尊厳、自律性、アクセスを促進することを確実にするために不可欠です。
• • •
参考文献
¹ 英国政府。「AI安全サミット参加国によるブレッチリー宣言(2023年11月1-2日)」。GOV.UK。2023年11月1日。
² 英国政府。「AI安全サミット2023(ブレッチリー・パーク)議長要約」。GOV.UK。2023年11月2日。
³ NIST。「人工知能リスク管理フレームワーク(AI RMF 1.0)」。NIST AI.100-1。米国国立標準技術研究所。2023年1月26日。
⁴ 国際標準化機構。「ISO/IEC 23894:2023 - 情報技術 — 人工知能 — リスク管理に関する指針」。2023年。
⁵ OECD.AI。「AIインシデントモニター(AIM)- グローバルAIインシデント・ハザードプラットフォーム」。2023年。
⁶ OECD。「AIインシデントおよび関連用語の定義」。経済協力開発機構。2024年。