OECD: G7 히로시마 AI 프로세스 보고 프레임워크(HAIP)
이 페이지는 원문 영어 기사의 번역본입니다. 메뉴 및 탐색 기능은 영어로만 제공됩니다.
우리는 작업 그룹에 의견을 제출했으며, OECD가 지원하는 G7 히로시마 AI 프로세스 보고 프레임워크(HAIP)(1)를 촉구합니다. 이 프레임워크는 파리 AI 행동 정상회의에서 발표되었으며, 우리는 접근성 중심 AI에 특화된 MOOC의 일부를 시연하고, 우리의 의견이 반영된 두 건의 보고서와 공개 협의 과정을 목격했습니다.
이 보고 프레임워크는 2023년 일본 G7 의장국 하에서 시작되어 2024년 이탈리아 G7 의장국 하에서 더욱 발전된 G7 히로시마 AI 프로세스의 직접적인 결과물입니다. 이는 첨단 AI 시스템 개발 과정에서 투명성과 책임성을 촉진하기 위한 획기적인 이니셔티브인 '히로시마 AI 프로세스: 첨단 AI 시스템 개발 기관을 위한 국제 행동 강령'을 기반으로 합니다. G7의 요청에 따라, 그리고 트렌토 선언에 부합하여, OECD는 행동 강령의 자발적 채택을 모니터링할 메커니즘을 마련하는 임무를 부여받았습니다.
관련 자료
OECD 도구 자료실 - 능력 중심 AI (1, 2, 3, 4)
G7 히로시마 AI 프로세스
히로시마 AI 프로세스는 특히 파운데이션 모델과 생성형 AI를 포함한 첨단 AI 시스템 거버넌스에 있어 공통 원칙과 관행 수립의 필요성에 대응합니다. 이 프로세스는 OECD AI 원칙을 기반으로 하며, AI 개발, 사용 및 배포 과정에서 위험 기반의 인권 준수 관행을 체계화하고자 합니다.
히로시마 원칙은 라이프사이클 위험 완화, 배포 후 모니터링, 투명성, 보안 통제부터 건강, 기후, 교육과 같은 글로벌 과제를 위한 AI의 책임 있는 활용에 이르기까지 11개 핵심 영역을 포괄합니다. 이 원칙들은 광범위한 이해관계자 의견을 통해 개발된, 지속적으로 진화하고 적응 가능한 프레임워크로 구상되었습니다.
HAIP 보고 프레임워크
HAIP 보고 프레임워크는 조직이 위험 완화 조치, 안전 프로토콜, 거버넌스 메커니즘 및 투명성 관행을 문서화하고 공개하는 데 도움을 주기 위해 고안된 자발적 보고 도구입니다.
HAIP 보고 프레임워크의 주요 특징은 다음과 같습니다:
AI 거버넌스 영역에 대한 포괄적 적용으로 국제적 모범 사례와의 일관성을 보장합니다.
시스템 기능, 한계 및 오용 시나리오에 대한 투명성 보고를 제공합니다.
거버넌스 정책, 데이터 관리 및 출시 후 사고 모니터링에 대한 문서화를 포함합니다.
가능한 경우 워터마킹을 포함한 콘텐츠 출처 및 인증 메커니즘을 제공합니다.
파일럿 단계 실행 데이터
2024년 7월 19일부터 9월 6일까지 진행된 파일럿 단계에서는 캐나다, 덴마크, 독일, 이스라엘, 일본, 네덜란드, 스페인, 스위스, 영국, 미국 등 10개국 20개 기관으로부터 실질적인 다중 이해관계자 피드백을 생성했습니다. 참여 기관은 대형 기술 기업부터 스타트업까지 다양했으며, AI 시스템 개발사, 글로벌 기술 기업, 연구 기관, 학술 기관, AI 규정 준수 컨설팅 업체를 포괄했습니다.
파일럿 결과 요약:
14개 기관이 보고 프로세스 간소화를 위해 반복적인 질문 통합을 요청했습니다.
13개 기관이 글머리 기호 및 하이퍼링크를 포함한 향상된 서식 옵션을 요구했습니다.
12개 기관이 단어 제한 및 예시를 포함한 명확한 설문 지침을 필요로 했습니다.
9개 응답 기관은 "첨단 AI 시스템", "부당한 위험", "중대한 사고" 등 모호한 핵심 용어에 대한 설명을 요청했습니다.
6개 기관은 기존 자발적 보고 체계(프론티어 AI 안전 약속, 백악관 AI 자발적 약속)와의 연계성 강화를 제안했습니다.
거버넌스 원칙 및 기술적 요구사항
이 프레임워크는 AI 라이프사이클 전반에 걸친 포괄적 위험 평가를 의무화하며, 레드팀 방법론을 포함한 다양한 내부 및 독립적 외부 테스트 조치의 이행을 요구합니다. 기술적 사양에는 모델 가중치, 알고리즘, 서버, 데이터셋에 대한 물리적 보안, 사이버 보안, 내부자 위협 방어 수단을 포괄하는 강력한 보안 통제가 포함됩니다.
주요 기술적 약속:
워터마킹 및 식별 기술을 통한 콘텐츠 인증 및 출처 추적 메커니즘
데이터셋, 프로세스 및 개발 결정에 대한 추적성 시스템
모든 주요 첨단 AI 시스템 출시 시 투명성 보고
산업계, 정부, 시민사회, 학계 간 책임 있는 정보 공유 프로토콜
표준개발기구(SDO)와의 국제 기술 표준 개발 협력
위험 완화 및 모니터링 프레임워크
조직은 취약점 식별, 사고 분석 및 오용 탐지를 위한 배포 후 모니터링과 개인정보 보호 조치를 포괄하는 위험 기반 거버넌스 정책을 수립해야 합니다. 이 프레임워크는 민주적 가치를 훼손하거나, 지역사회에 해를 끼치거나, 테러리즘을 조장하거나, 범죄 활동을 가능하게 하거나, 중대한 안전 및 보안 위험을 초래하는 AI 시스템을 금지하며, 국제 인권법 및 유엔 기업과 인권에 관한 지침 원칙과 부합합니다.
국제적 조정 및 표준 개발
이 이니셔티브는 OECD, 글로벌 AI 파트너십(GPAI), 다중 이해관계자 협력을 통해 국제 기술 표준을 발전시킵니다. 관할권은 핵심 모니터링 원칙을 준수하면서도 구현 유연성을 유지합니다. OECD 산하 기업협의회(BIAC)는 관할권 간 규제 상호운용성, 국경 간 협력, 투명한 AI 기술 접근을 위한 이 프레임워크를 지지합니다.
데이터 보호 및 윤리적 AI 개발
이 프레임워크는 유해한 편향을 완화하기 위한 훈련 데이터 감독을 포함한 데이터 품질 관리를 요구하며, 적용 가능한 법적 체계 하에서 데이터셋에 대한 투명성 의무를 부과합니다. 우선 개발 목표는 기후 위기, 보건, 교육 등 글로벌 과제를 대상으로 하며, 책임감 있고 인간 중심의 AI 관리 및 디지털 리터러시 향상을 통해 유엔 지속가능발전목표(SDGs)를 지원합니다.
이행 일정 및 현황
운영 보고 프레임워크는 2025년 2월 7일 파리에서 열린 AI 행동 정상회의에서 출범했으며, 첫 보고 주기 제출 마감은 2025년 4월 15일, 공개는 2025년 6월로 예정되어 있습니다.
아마존, 앤트로픽, 후지쯔, 구글, KDDI, 마이크로소프트, NEC, NTT, 오픈AI, 프리퍼드 네트워크스, 라쿠텐 그룹, 세일즈포스, 소프트뱅크 등 주요 AI 개발사들이 이 초도 프레임워크 참여를 약속했습니다. 제출 자료는 상업적 민감 정보를 제외한 모든 내용이 OECD의 지정 투명성 플랫폼을 통해 공개될 예정입니다.
이 포괄적 프레임워크는 첨단 AI 거버넌스에 대한 국제적 합의를 반영하며, 다양한 조직적 맥락과 관할권 체계에서 신기술 개발 및 배포에 혁신 친화적 접근을 유지하면서도 측정 가능한 책임성 메커니즘을 확립합니다. 본 이니셔티브는 국제 협력이 AI 거버넌스 진전을 어떻게 촉진할 수 있는지 보여주는 사례로, 전 세계적으로 투명성 및 위험 관리 관행에 대한 표준화된 기대치를 창출합니다.
• • •
참고문헌
¹ 경제협력개발기구(OECD). "G7 히로시마 AI 프로세스: 첨단 AI 시스템 개발 기관을 위한 국제 행동 강령." OECD. 2023.
² 경제협력개발기구. "HAIP: 히로시마 AI 프로세스 보고 프레임워크." OECD. 2024.
³ G7 이탈리아. "히로시마 AI 프로세스 및 트렌토 대화 결과에 관한 장관 선언." 이탈리아 G7 의장국. 2024.
⁴ OECD.AI 정책 관측소. "인공지능 시스템 분류를 위한 OECD 프레임워크." OECD. 2022.
⁵ OECD.AI 정책 관측소. "OECD 인공지능 원칙: 인공지능에 관한 이사회 권고." OECD. 2019.
⁶ 경제협력개발기구. "HAIP 보고 프레임워크 시범 단계 요약." OECD. 2025.