汎用AI行動規範(ワーキンググループ2、3)[JA]

使用可能な言語: EN, JA

このページは英語の原文記事の翻訳です。なお、ナビゲーションは英語のみで提供されていますのでご了承ください。

本稿は、汎用AI行動規範(2025年3月)の草案第3版において、同規範の最終化に先立ち作成された意見を踏まえたものである。

欧州委員会の意見募集に応じ、我々はワーキンググループ2(システミックリスクのリスク評価)および3(システミックリスクの技術的リスク軽減)に参加し、汎用AI(GPAI)行動規範の策定に貢献しました。

「汎用AI行動規範」は、EU AI法第56条に基づき策定された自主的な共同規制枠組みであり、汎用AI(GPAI)モデルの提供者が法的義務を遵守できるよう支援することを目的としています。起草段階において、本規範は欧州委員会の調整の下、AI開発、市民社会、学界、産業界、国際機関にわたる1,000名以上のステークホルダーが協力して策定しました。本規範は4つの専門作業部会を中心に構成されています。作業部会1は、すべてのGPAIモデルに対する透明性要件(特定のオープンソースシステムに対する限定的な例外を除く)を扱っており、作業部会2、3、4は「安全・セキュリティ部門」を構成しています。これらのグループは、システミックリスクをもたらすと見なされるGPAIモデルに特に焦点を当て、リスク評価手法(WG2)、技術的なリスク軽減措置(WG3)、ガバナンスメカニズム(WG4)を網羅しています。実践規範の最終版は2025年7月に公表され、その後、EU AI事務局および欧州人工知能委員会(AI委員会)により、AI法への準拠を支援する適切な自主的枠組みとして承認されました。本規範は、将来の技術的進展に合わせて進化していくことを意図しています。

本稿では特に、システミックリスク、アクセシビリティ、および公共・重要インフラの文脈におけるGPAIシステムの役割に焦点を当てます。

更新情報:2025年7月下旬までに、Google、Microsoft、OpenAI、Mistral AI、およびAnthropicが、GPAI実践規範への署名意向を表明しました。

‍ ‍

関連

‍ ‍

EU汎用AI行動規範の年表

  • 起草プロセスの開始および最初の呼びかけ:2024年7月~10月

  • 草案1の公開:2024年11月14日

  • 草案2の公開:2024年12月19日

  • 草案3の公開:2025年3月11日

  • 最終版行動規範の公表:2025年7月10日

‍ ‍

汎用AI行動規範(GPAI)第3草案期間中に提出された意見および提案

以下は、汎用AI行動規範の第3草案段階において提出された、EU AI法の特定の規定に対する拡張案および解釈案を反映したものです。これらの提案は、特に行動規範の策定、とりわけシステミックリスク、アクセシビリティ、および公共・重要システムへの導入に関して参考とすることを意図したものであり、最終的な法的要件を示すものではありません。

  • 第5条(1)(b) - 脆弱性の悪用

認知的、感覚的、または感情的な脆弱性(例:未成年者、高齢者、障害者)を意図せず悪用する可能性のある相互作用パターンについて、マルチモーダルかつマルチメソッドによる評価を含めるよう、テスト要件を拡張することを提案する。これには、導入環境(クラウド、エッジ、断続的な接続環境)を横断したテストが含まれ、特に支援技術や公共安全システムが機能低下状態下で動作する可能性がある場合を対象とする。

  • 第9条(9) - 脆弱なグループに対するリスク評価

障害のあるユーザー、介護者、臨床スタッフ、支援技術プロバイダー、および都市インフラ(例:交通、緊急アクセス、市民システム)内の依存関係を含め、ケアおよび重要インフラのエコシステム全体にわたるシステムレベルの影響を把握できるよう、リスク評価手法の拡大を提案する。

  • 第13条(3) - システム性能に関する透明性

ユーザーグループやインターフェース(支援技術(スクリーンリーダー、AACシステムなど)との相互作用を含む)全体にわたるシステム性能に関する詳細な報告、およびインフラが混乱または制約された状況下での性能に関する報告を導入することを提案する。

  • 第14条(5) - 人的監視(生体認証システム)

影響の大きいGPAI支援環境(例:医療、支援技術、公共安全システム)において、人的監視の概念を、カスケード型および多者間検証モデルへと拡張することを提案する。

  • 第16条 - 提供者の義務(EUアクセシビリティ枠組みへの準拠を含む)

アクセシビリティの考慮事項を、マルチユーザー・マルチデバイス環境(例:スマートホーム、ケア調整システム)へと拡大し、既存の支援技術および公共デジタルインフラとの相互運用性を強化することを提案する。

  • 第26条(7) - 職場における情報提供義務

障害のある労働者およびその支援体制にとってAIシステムの利用が理解可能となるよう、アクセシブルなコミュニケーションプロトコル(テキスト、音声、視覚、平易な言葉)の開発を提案する。

  • 第27条 - 基本的権利への影響評価

医療、教育、市民インフラ(例:給付制度、投票、許認可)などの分野における依存、排除、操作、自律性の喪失といったリスクを含めるよう、評価手法の拡大を提案する。

  • 研究アクセス - 特定のAI法条項に直接結びつかない政策提案

危機対応や公共インフラを含む実世界(医療、教育、支援技術)の文脈において、市民社会や学術界によるGPAIシステムの評価を可能にする、安全な研究アクセス枠組みの確立を提案する。

  • 第50条(3) - 生体認証および感情認識システムの透明性

GPAIを介したサービス、特にユーザーが支援技術や仲介技術に依存している場合、および公共監視や資源配分システムなどの文脈において、透明性および説明可能性の要件を拡大することを提案する。

  • 第50条 - AIシステムとの相互作用の透明性

感覚障害や認知障害のあるユーザーを含むすべてのユーザーがAIシステムとの相互作用を認識できるよう、マルチモーダル通知基準(聴覚、視覚、触覚、簡易形式)の導入を提案する。

  • 第53条~第55条 - システミックリスクに関するGPAIの義務

アクセシビリティ、サービス品質、レジリエンスに対する実世界への影響を評価するため、特定分野(例:医療、教育、都市インフラ)に特化した評価環境や、シミュレーション環境やデジタルツインなどのテストインフラの構築を提案する。

  • 第56条 - 実践規範

GPAIの実践規範において、特に影響の大きい公共分野および支援技術分野向けに、分野別のトレーニングおよび評価プロトコルの策定を提案する。

  • 第58条 - 規制サンドボックス

医療、教育、および支援技術におけるGPAIアプリケーション向けの専用サンドボックスを提案し、システミックリスク、排除のパターン、および意図しない結果の特定に焦点を当てる。

  • AI事務局の機能 - 政策提案

GPAIの監督を支援するガバナンス構造において、アクセシビリティ、高齢化、公共システムに関する組織的な専門知識の強化を提案する。

  • 第95条(2)(e) - 行動規範と脆弱なグループ

多様なユーザーグループにわたる操作、アクセシビリティ、およびシステミックリスクに対処する評価フレームワークの策定を提案する。これには、進化する支援技術や公共システムに合わせて継続的に更新される仕組みを含める。

‍ ‍

汎用AI行動規範のコミットメント(第3草案)

以下の意見は、主に行動規範の最終版を策定することを目的としているが、既存のAI法の規定の実施も支援するものである。いくつかのケースにおいて、行動規範の現在の第3草案にはすでに関連するコミットメントが含まれている。我々の意見は、それらの草案規定を基盤とし、あるいはそれを拡張するものである。

  • システミック・リスク評価(コミットメント II.1)

「署名者は、システミック・リスク評価、システミック・リスク軽減、およびガバナンス・リスク軽減措置を詳細に規定する『安全・セキュリティ・フレームワーク』を採用し、実施することを約束する。」(草案3、コミットメント II.1)

提案:システミック・リスク評価の範囲を、ケア・エコシステムのドメイン固有モデルにまで拡大し、GPAIが脆弱なユーザーや公共インフラに与える影響を把握すること。

  • ドキュメント化と支援技術の性能(コミットメント I.1)

「署名者は、下流のプロバイダーに関連情報を提供する……モデルドキュメントを作成し、最新の状態に維持することを約束する。」(草案3、コミットメント I.1、措置 I.1.1)

提案:GPAIシステムが適応技術やインターフェースとどのように相互作用するかに関する、詳細な性能報告を追加する。

  • 著作権と研究アクセス(コミットメント I.2)

「署名者は、著作権ポリシーの策定、最新状態の維持、および実施……ならびに措置 I.2.2~I.2.6の採用に取り組む。」(草案3、コミットメント I.2)

提案:市民社会および学術研究によるGPAIシステムへのアクセスを可能にする仕組みの追加。

  • 相互運用性と下位互換性(コミットメント I.1 / I.3)

「署名者は、モデル文書を作成し、最新の状態に維持すること……および下流のプロバイダーに関連情報を提供することを約束する。」(草案3、コミットメント I.1)

提案:公共およびリソースの限られた環境での統合に向け、従来の支援技術やAPIとのGPAIの互換性に関する文書化を義務付ける。

  • 人的監視およびエスカレーション手順(コミットメント II.2 / II.3)

「署名者は、システミックリスクを伴う汎用AIモデルがシステミックリスクをもたらさないよう、適切な人的監視措置を実施することを約束する。」(草案3、コミットメント II.2)

提案:一般向けサービス(例:医療、安全)におけるGPAIのための階層的な人的監視の役割とエスカレーションチェーンを定義する。

  • 評価指標(コミットメント III.1)

「署名者は、システミックリスクを伴う汎用AIモデルを、標準化されたプロトコルおよびツールに従って評価・テストすることを約束する。」(草案3、コミットメント III.1)

提案:細分化されたアクセシビリティ性能指標および市民的ユーザビリティ指標(例:スクリーンリーダーの遅延、タスク完了率)を義務付ける。

  • 支援・コンテキスト特化型事前学習(コミットメント I.1)

「署名者は、モデル文書を作成し、最新の状態に維持すること……下流のプロバイダーに関連情報を提供することを約束する。」(草案3、コミットメント I.1)

提案:支援および公共サービスのコンテキスト(例:インクルーシブ教育、支援技術(AT)のインタラクションパターン)におけるGPAIの事前学習を義務付ける。

  • 規制サンドボックスおよびテストベッド(AI法第58条)

提案:医療、教育、都市インフラなどの分野におけるGPAI専用のテストベッド。

  • マルチモーダル通知と透明性(AI法第50条)

提案:本規範は、アクセシビリティを確保するため、AIとの相互作用において聴覚、視覚、触覚による通知を義務付けるべきである。

更新:汎用AIモデルに関するEU AI行動規範の最終版はすでに公表されているが、重要インフラおよび公共システムに関する規定をさらに強化する重要な機会は依然として残されている。

• • •

‍ ‍

参考文献

¹ 欧州委員会。「汎用AI行動規範」。『欧州のデジタルの未来を形作る』。2024年。

² 欧州委員会。「独立専門家によって作成された汎用AI実践規範の第3次草案が公表された。」2025年3月11日。

³ 欧州連合。「人工知能に関する調和された規則を定める2024年6月13日の欧州議会および理事会規則(EU)2024/1689(人工知能法)。」欧州連合官報。2024年6月13日。

⁴ 欧州委員会。「AI法:初の汎用AI行動規範の策定に参加しよう」。2024年7月30日。

⁵ 欧州議会および理事会。「公共部門機関のウェブサイトおよびモバイルアプリケーションのアクセシビリティに関する指令(EU)2016/2102」。2016年10月。

⁶ 欧州議会および理事会。「製品およびサービスのアクセシビリティ要件に関する欧州アクセシビリティ法(指令(EU)2019/882)」。2019年4月。

‍ ‍