범용 AI 실천 강령 (작업반 2, 3) [KO]

사용 가능 언어: EN, KO

페이지는 원문 영어 기사번역본입니다. 메뉴 및 탐색 기능은 영어로만 제공됩니다.

본 기고문은 실천 강령이 최종 확정되기 전, 범용 AI 실천 강령(2025년 3월) 제3차 초안 단계에서 개발된 의견을 반영한 것입니다.

유럽집행위원회의 의견 수렴 요청에 따라, 우리는 범용 AI(GPAI) 실천 강령의 개발에 기여하기 위해 작업반 2(시스템적 위험 평가) 및 작업반 3(시스템적 위험에 대한 기술적 위험 완화)에 참여했습니다.

범용 AI 실천 강령은 범용 AI(GPAI) 모델 제공자가 법적 의무를 준수할 수 있도록 지원하기 위해 EU AI법 제56조에 따라 개발된 자발적 공동 규제 프레임워크입니다. 초안 작성 단계에서 이 강령은 유럽집행위원회가 조정한 절차를 통해 AI 개발, 시민 사회, 학계, 산업계 및 국제 기관을 망라하는 1,000명 이상의 이해관계자가 협력하여 개발했습니다. 실천 강령은 네 개의 전문 작업반을 중심으로 구성되어 있습니다. 작업반 1은 모든 GPAI 모델에 대한 투명성 요건(일부 오픈소스 시스템에 대한 제한적 예외 포함)을 다루며, 작업반 2, 3, 4는 안전 및 보안 섹션을 구성합니다. 이들 작업반은 시스템적 위험을 초래할 것으로 간주되는 GPAI 모델에 특히 초점을 두며, 각각 위험 평가 방법론(WG2), 기술적 위험 완화 조치(WG3), 거버넌스 메커니즘(WG4)을 다룹니다. 실천 강령의 최종판은 2025년 7월에 발표되었으며, 이후 EU AI 사무국과 유럽 인공지능 위원회(AI Board)로부터 AI법 준수를 지원하는 적절한 자발적 프레임워크로 인정받았습니다. 이 실천 강령은 향후 기술 발전에 맞춰 지속적으로 진화해 나갈 예정입니다.

본 기고문은 특히 시스템적 위험, 접근성, 그리고 공공 및 핵심 인프라 맥락에서 GPAI 시스템의 역할에 중점을 둡니다.

업데이트: 2025년 7월 말 기준, 구글, 마이크로소프트, 오픈AI, 미스트랄 AI, 앤트로픽은 GPAI 실천 강령에 서명할 의사를 표명했습니다.

관련 자료

EU 범용 AI 실천 강령 연표

  • 초기 요청 및 초안 작성 절차 개시: 2024년 7월~10월

  • 제1차 초안 발표: 2024년 11월 14일

  • 제2차 초안 발표: 2024년 12월 19일

  • 제3차 초안 발표: 2025년 3월 11일

  • 최종 실천 강령 발표: 2025년 7월 10일

범용 AI 실천 강령 제3차 초안 단계에서 제출된 의견 및 제안

다음 내용은 범용 AI 실천 강령 제3차 초안 단계에서 제출된, EU AI법 특정 조항에 대한 확대 해석 및 적용 제안을 반영한 것입니다. 이러한 제안들은 특히 시스템적 위험, 접근성, 공공 및 핵심 시스템 내 배포와 관련하여 실천 강령의 개발을 뒷받침하기 위한 것이었으며, 최종 법적 요건을 나타내는 것은 아닙니다.

  • 제5조 제1항 (b) — 취약성 악용

인지적·감각적·정서적 취약성(예: 미성년자, 노인, 장애인)을 의도치 않게 악용할 수 있는 상호작용 패턴에 대한 다중 모달 및 다중 방법 평가를 포함하도록 테스트 요건의 확대를 제안함. 여기에는 배포 환경(클라우드, 엣지, 간헐적 연결) 전반에 걸친 테스트가 포함되며, 특히 보조 기술 및 공공 안전 시스템이 성능 저하 상태에서 운용될 수 있는 경우를 포함함.

  • 제9조 제9항 — 취약 계층에 대한 위험 평가

장애가 있는 사용자, 돌봄 제공자, 임상 의료진, 보조 기술 제공자는 물론 도시 인프라(예: 교통, 응급 접근, 시민 서비스) 내의 상호 의존성을 포함하여, 돌봄 및 핵심 인프라 생태계 전반에 걸친 시스템 수준의 영향을 포착할 수 있도록 위험 평가 방법론의 확대를 제안함.

  • 제13조 제3항 — 시스템 성능의 투명성

보조 기술(예: 화면 읽기 프로그램, AAC 시스템)과의 상호작용 및 인프라 장애·제약 상황에서의 성능을 포함하여, 사용자 그룹 및 인터페이스 전반에 걸친 시스템 성능의 세분화된 보고 도입을 제안함.

  • 제14조 제5항 — 인간 감독 (생체 인식 시스템)

영향이 큰 GPAI 활용 환경(예: 의료, 보조 기술, 공공 안전 시스템)에서 인간 감독 개념을 단계적·다중 이해관계자 검증 모델로 확대할 것을 제안함.

  • 제16조 — 제공자 의무 (EU 접근성 프레임워크 준수 포함)

접근성 고려 사항을 다중 사용자·다중 기기 환경(예: 스마트 홈, 돌봄 조정 시스템)으로 확대하고, 기존 보조 기술 및 공공 디지털 인프라와의 상호운용성을 강화할 것을 제안함.

  • 제26조 제7항 — 직장 내 정보 제공 의무

장애를 가진 근로자와 그 지원 체계가 AI 시스템 사용을 이해할 수 있도록 접근 가능한 소통 프로토콜(텍스트, 음성, 시각, 쉬운 언어)의 개발을 제안함.

  • 제27조 — 기본권 영향 평가

의료, 교육, 시민 인프라(예: 복지 시스템, 선거, 허가) 등의 분야에서 의존성, 배제, 조작, 자율성 상실의 위험을 포함하도록 평가 방법론의 확대를 제안함.

  • 연구 접근성 — 특정 AI법 조항과 직접 연계되지 않은 정책 제안

위기 대응 및 공공 인프라와 관련된 시나리오를 포함하여, 시민 사회와 학계가 실제 환경(의료, 교육, 보조 기술)에서 GPAI 시스템을 평가할 수 있도록 하는 안전한 연구 접근 프레임워크 수립을 제안함.

  • 제50조 제3항 — 생체 인식 및 감정 인식 시스템의 투명성

투명성 및 설명 가능성 요건을 GPAI가 매개하는 서비스로 확대할 것을 제안함. 특히 사용자가 보조 기술이나 중개 기술에 의존하는 경우, 그리고 공공 모니터링 또는 자원 배분 시스템과 같은 맥락에서 적용되어야 함.

  • 제50조 — AI 시스템 상호작용의 투명성

감각적·인지적 장애를 가진 사용자를 포함한 모든 사용자가 AI 시스템과의 상호작용을 인지할 수 있도록 다중 모달 알림 표준(청각, 시각, 촉각, 간소화된 형식)의 도입을 제안함.

  • 제53조–제55조 — 시스템적 위험에 대한 GPAI 의무

접근성, 서비스 품질 및 복원력에 대한 실제 영향 평가를 위해 도메인별 평가 환경(예: 의료, 교육, 도시 인프라) 및 시뮬레이션 환경·디지털 트윈과 같은 테스트 인프라의 개발을 제안함.

  • 제56조 — 실천 강령

GPAI 실천 강령 내에서, 특히 영향력이 큰 공공 및 보조 기술 도메인을 대상으로 도메인별 교육 및 평가 프로토콜의 개발을 제안함.

  • 제58조 — 규제 샌드박스

시스템적 위험, 배제 패턴 및 의도치 않은 결과 식별에 초점을 둔, 의료·교육·보조 기술 분야 GPAI 적용을 위한 전용 샌드박스를 제안함.

  • AI 사무국 역량 — 정책 제안

GPAI 감독을 지원하는 거버넌스 구조 내에서 접근성, 고령화, 공공 시스템 분야의 기관 전문성 강화를 제안함.

  1. 제95조 제2항 (e) — 행동 강령 및 취약 계층

다양한 사용자 집단 전반에 걸친 조작, 접근성, 시스템적 위험을 다루는 평가 프레임워크를 개발하고, 진화하는 보조 기술 및 공공 시스템에 맞춰 지속적으로 업데이트하는 메커니즘 마련을 제안함.

범용 AI 실천 강령 약속 사항 (제3차 초안)

다음 의견은 주로 실천 강령의 최종안 마련을 목적으로 하나, 기존 AI법 조항의 이행도 뒷받침합니다. 여러 경우, 현행 제3차 초안에는 이미 관련 약속 사항이 포함되어 있으며, 본 의견은 해당 초안 조항을 기반으로 하거나 이를 확장합니다.

  • 시스템적 위험 평가 (약속 II.1)

"서명 기관은 시스템적 위험 평가, 시스템적 위험 완화 및 거버넌스 위험 완화 조치를 상술하는 안전·보안 프레임워크를 채택하고 이행할 것을 약속한다." (제3차 초안, 약속 II.1)

의견: 시스템적 위험 평가를 돌봄 생태계의 도메인별 모델로 확대하여 취약 계층 사용자와 공공 인프라에 대한 GPAI의 영향을 포착해야 한다.

  • 문서화 및 보조 기술 성능 (약속 I.1)

"서명 기관은 하위 제공자에게 관련 정보를 제공하는 모델 문서를 작성하고 최신 상태로 유지할 것을 약속한다." (제3차 초안, 약속 I.1, 조치 I.1.1)

제안: GPAI 시스템이 적응형 기술 및 인터페이스와 어떻게 상호작용하는지에 대한 세분화된 성능 보고를 추가한다.

  • 저작권 및 연구 접근성 (약속 I.2)

"서명 기관은 저작권 정책을 수립·유지·이행하고... 조치 I.2.2–I.2.6을 채택할 것을 약속한다." (제3차 초안, 약속 I.2)

제안: 시민 사회 및 학계의 GPAI 시스템 연구 접근을 위한 메커니즘을 추가한다.

  • 상호운용성 및 하위 호환성 (약속 I.1 / I.3)

"서명 기관은 모델 문서를 작성·유지하며... 하위 제공자에게 관련 정보를 제공할 것을 약속한다." (제3차 초안, 약속 I.1)

제안: 공공 및 저자원 환경에서의 통합을 위해 기존 보조 기술 및 API와의 GPAI 호환성 문서화를 의무화한다.

  • 인간 감독 및 에스컬레이션 프로토콜 (약속 II.2 / II.3)

"서명 기관은 시스템적 위험을 지닌 범용 AI 모델이 시스템적 위험을 초래하지 않도록 적절한 인간 감독 조치를 이행할 것을 약속한다." (제3차 초안, 약속 II.2)

제안: 대중 대상 서비스(예: 의료, 안전)에서 GPAI를 위한 단계별 인간 감독 역할 및 에스컬레이션 체계를 정의한다.

  • 평가 지표 (약속 III.1)

"서명 기관은 표준화된 프로토콜 및 도구에 따라 시스템적 위험을 지닌 범용 AI 모델을 평가하고 테스트할 것을 약속한다." (제3차 초안, 약속 III.1)

제안: 세분화된 접근성 성능 지표 및 시민 사용성 지표(예: 화면 읽기 프로그램 응답 지연, 작업 완료율)를 의무화한다.

  • 보조 기술 맥락 특화 사전 학습 (약속 I.1)

"서명 기관은 모델 문서를 작성·유지하며... 하위 제공자에게 관련 정보를 제공할 것을 약속한다." (제3차 초안, 약속 I.1)

제안: 보조 기술 및 공공 서비스 맥락(예: 포용적 교육, 보조 기술 상호작용 패턴)에 대한 GPAI 사전 학습을 의무화한다.

  • 규제 샌드박스 및 테스트베드 (AI법 제58조).

제안: 의료, 교육, 도시 인프라 등 분야의 GPAI 전용 테스트베드를 구축한다.

  • 다중 모달 알림 및 투명성 (AI법 제50조).

제안: 접근성 보장을 위해 AI 상호작용 시 청각·시각·촉각 알림을 본 강령에 의무화해야 한다.

업데이트: 범용 AI 모델에 대한 EU AI 실천 강령 최종판이 발표되었으나, 핵심 인프라 및 공공 시스템 관련 조항을 더욱 강화할 중요한 기회가 여전히 남아 있습니다.

• • •

참고 문헌

¹ 유럽집행위원회. 「범용 AI 실천 강령」. 유럽의 디지털 미래 조성. 2024.

² 유럽집행위원회. 「독립 전문가들이 작성한 범용 AI 실천 강령 제3차 초안 발표.」 2025년 3월 11일.

³ 유럽연합. 「인공지능에 관한 조화 규정을 정하는 유럽의회 및 이사회 규정 (EU) 2024/1689」 (인공지능법). 유럽연합 관보. 2024년 6월 13일.

⁴ 유럽집행위원회. 「AI법: 최초의 범용 AI 실천 강령 수립에 참여하세요.」 2024년 7월 30일.

⁵ 유럽의회 및 이사회. 「공공 부문 기관의 웹사이트 및 모바일 애플리케이션 접근성에 관한 지침 (EU) 2016/2102.」 2016년 10월.

⁶ 유럽의회 및 이사회. 「지침 (EU) 2019/882 — 제품 및 서비스의 접근성 요건에 관한 유럽 접근성법.」 2019년 4월.