ソウル宣言とフロンティアAI安全コミットメント [JA]
このページは英語の原文記事の翻訳です。なお、ナビゲーションは英語のみで提供されていますのでご了承ください。
安全で革新的かつ包摂的なAIのためのソウル宣言を受けて、私たちはKorea AI Safetyに参画し、AIモデルおよび関連する重要インフラの両面において、公共分野・支援技術・アクセシビリティ領域の分類体系を安全に促進する方法をさらに拡大しています。
関連情報
AI協定とAI法実施の次なるステップ:アクセスと公共システム
ソウルAI安全宣言は、2024年5月21日に開催されたAIソウルサミットで採択され、前年のブレッチリー宣言を基盤としています。10カ国と欧州連合の指導者が署名した本宣言は、人工知能(AI)の安全で革新的かつ包摂的な発展を確保するための国際協力の必要性を強調しています。本宣言は、法の支配に沿った人間中心のAIの重要性を明確にしています。また、デジタル格差の解消と、AIの課題と機会に対処するための国際協力の強化も提唱しています。
ソウルサミットの主な成果として、国際的なAI安全研究所ネットワークの創設が挙げられます。このネットワークには英国、米国、日本、フランス、ドイツ、イタリア、シンガポール、韓国、オーストラリア、カナダ、欧州連合の機関が参加しています。その目的は、安全研究における協力を促進し、ベストプラクティスを共有し、AI安全性を推進するための技術リソースを開発することです。
もう一つの成果は、フロンティアAI安全コミットメントの導入です。アマゾン、グーグル、メタ、マイクロソフト、アンソロピック、オープンAIを含む16のグローバルAI企業が、高度なAIシステムがもたらす「許容できないリスク」を定義し開示することを誓約しました。これらのコミットメントは、サイバーセキュリティ、モデルの自律性、社会的混乱といった主要分野に焦点を当てています。各社はリスク管理戦略を明文化した安全フレームワークの公開を約束しており、その内容には透明性の向上、内部・外部レッドチーム活動の実施、第三者による脆弱性報告の促進などが含まれます。これらの取り組みは、積極的なリスク管理と安全なAI開発のためのグローバル基準確立に向けた重要な一歩です。
フロンティアAI安全コミットメント
本宣言はフロンティアAI安全コミットメントによって補完されます。これは、強力な汎用AIモデルに関連する深刻なリスクを管理するための、主要AI組織による一連の自主的誓約です。
厳格なリスク評価:企業は、AIモデルの訓練前および訓練中、ならびに展開前に潜在的な危害を評価することを約束します。これには内部テストと外部評価の両方が含まれます。
「許容できない」リスクの定義と管理:重大かつ容認できないリスクに対する明確な閾値を設定することが重要な誓約です。この閾値に達し、かつ緩和策が不十分な場合、組織は当該モデルの開発・展開を一切行わないことを誓約します。
強固なガバナンスと透明性:これには、強力な内部安全フレームワークの構築、進捗状況の公開報告、「レッドチーム」(AIのストレステスト)のための外部専門家との連携、サイバーセキュリティの強化、モデル能力とリスクに関する情報の選択的共有が含まれます。
AI安全性と公共システム
私たちの公開討論への貢献と参加には、大規模言語モデル(LLM)、小規模言語モデル(SLM)、ビジョン言語モデル(VLM)、新興の3D基盤モデル、マルチモーダル能力など、基礎的・応用的なAIモデルに焦点を当て、公共・支援システム向けの広範なプロトコルと分類体系に整合させるため、フロンティアAI安全コミットメントをさらに精緻化する方法が含まれました。これらのモデルは支援技術、医療、公共分野において極めて重要です。AI安全機関は、支援ロボットからアクセシビリティツールに至るまで、幅広いシステムとインターフェースを包含するよう取り組みと能力を構築しなければなりません。実世界の条件をシミュレートする規制サンドボックスやテストベッドには特に注意を払い、AIモデルの安全性とアクセシビリティを確保すべきです。例えば音声対応デバイスや移動補助装置などの支援AIシステムは、認知、感覚、身体障害を持つ多様なユーザーとの相互作用において安全に動作することを保証するため、こうした環境下での適合性テストが必須です。
フロンティアAIモデルは、データ要件、計算能力、電力消費、セクター横断的なサイバーレジリエンスといった重要技術要素に基づき評価すべきです。この評価では職場、医療、教育などの高リスク公共領域への実用的影響も考慮する必要があります。リスクと閾値は理論上の能力だけでなく、現実世界の応用例に基づいて定義されるべきです。例えば、支援技術や医療分野に3D基盤モデルを導入する際には、堅牢性の厳格な評価が必須であり、誤用を回避する必要があります。最後に、公衆の意見を踏まえ、AI開発者はリスク管理戦略の有効性を明確に示すため、対策前後の安全評価結果を両方開示すべきです。
• • •
参考文献
¹ 英国政府。「リーダーズセッション出席者による安全で革新的かつ包摂的なAIに関するソウル宣言:AIソウルサミット、2024年5月21日」。GOV.UK。2024年5月21日。
² 英国政府。「AI安全科学に関する国際協力に向けたソウル意向声明、AIソウルサミット2024(付属文書)」。GOV.UK。2024年5月21日。
³ 英国政府。「フロンティアAI安全コミットメント、AIソウルサミット2024」。GOV.UK。2024年5月21日。
⁴ 英国政府。「AI安全性、革新性、包摂性を推進するためのソウル閣僚声明:AIソウルサミット2024」。GOV.UK。2024年5月22日。
⁵ 戦略国際問題研究所(CSIS)。「AIソウルサミット」。2024年10月15日。
⁶ 米国韓国経済研究所(KEI)。「AIソウルサミットで発表された主要なコミットメント」。2024年5月29日。