블레치리 선언과 인공지능 안전 [KO]
이 페이지는 원문 영어 기사의 번역본입니다. 메뉴 및 탐색 기능은 영어로만 제공됩니다.
우리는 블레치리 선언에 대한 공개 의견 요청과 공개 토론에 기여해 왔습니다. 이 선언은 인공지능 안전에 대한 다중 이해관계자 관점을 더욱 확대하고, 공공 및 핵심 인프라, 의료, 교육, 보조 및 접근성 기술 분야를 포함한 사례와 시나리오를 제시하는 것을 목표로 합니다.
블레치리 선언은 2023년 11월 1일 영국 블레치리 파크에서 개최된 인공지능 안전 정상회의(AI Safety Summit)에서 체결된 획기적인 국제 협정입니다. 미국, 중국, 유럽연합(EU) 회원국을 포함한 28개국과 EU의 지지를 받은 이 선언은 특히 잠재적으로 중대한 사회적 영향을 미칠 수 있는 고성능 범용 모델인 "프론티어 AI" 시스템에 초점을 맞추어, 인공지능(AI)의 안전하고 책임 있는 개발에 대한 공동의 약속을 확립합니다.
관련 자료
AI 협약 및 AI법 시행을 위한 다음 단계: 접근성 및 공공 시스템
선언문의 원칙과 목표
인간 중심적이고 책임 있는 AI: 본 선언문은 AI가 안전하고 인간 중심적이며 신뢰할 수 있고 책임 있는 방식으로 설계, 개발, 배포 및 사용되어야 함을 강조합니다.
위험 인식: 의도적 오용이나 의도하지 않은 결과로 인해 프론티어 AI 모델의 가장 중요한 기능이 심각한, 심지어 재앙적인 피해를 초래할 가능성을 인정합니다.
국제 협력: 서명국들은 이러한 위험을 해결하는 최선의 방법은 국제적 협력을 통해 AI 위험에 대한 과학적이고 증거 기반의 공유된 이해를 구축하고 안전을 보장하기 위한 위험 기반 정책을 개발하는 것이라고 동의합니다.
혁신과 규제의 균형: 본 선언은 AI의 혜택을 극대화하면서 관련 위험을 해결하는 혁신 친화적이고 비례적인 거버넌스 및 규제 접근법의 중요성을 강조합니다.
공공 논의
공공 시스템과 핵심 인프라의 관점에서 우리는 다음을 강조했습니다:
시나리오와 관련성: OECD AI 안전 도구 및 사고 데이터베이스에 기여하신 사례에서 보듯, 실제 AI 사용 사례와 적용에 집중하는 중요성을 강조합니다. AI 안전과 거버넌스는 실제 경험과 구체적인 배포 사례에 기반해야 합니다.
개방 접근과 투명성: 애플리케이션뿐 아니라 기반 모델과 인프라를 포함한 공공 및 보조 기술 데이터베이스에 대한 개방 접근을 옹호합니다. OECD 보조 기술 데이터베이스에 대한 귀하의 기여는 접근성과 투명성에 대한 이러한 약속을 반영합니다.
위험 평가: 미성년자, 환자, 보호자 및 기타 취약 계층(현재 규제 체계에서 종종 간과되는 집단)을 명시적으로 고려하는 포괄적이고 포용적인 위험 평가를 촉구합니다.
지리적 및 사회경제적 맥락: AI 시스템 구현 및 평가 시 전 세계적으로 관련성 있는 거버넌스를 보장하기 위해 다양한 지역의 사회경제적 패턴과 역사적 맥락을 고려하는 중요성을 강조합니다.
프론티어 모델의 소프트웨어 및 하드웨어 고려: 대규모 언어 모델(LLM), 비전-언어 모델(VLM), 3D 파운데이션 모델 등 프론티어 AI 모델 평가에 있어 센서 및 공공·보조 인프라에 사용되는 햅틱 인터페이스를 포함한 지원 하드웨어 생태계를 포괄하는 종합적 접근법을 권장합니다.
훈련 환경 및 규제 샌드박스: 소프트웨어와 하드웨어 구성 요소를 통합한 현실 세계의 학제간 훈련 환경 개발을 지원합니다. 여기에는 통제된 현실 조건에서 AI 시스템을 안전하게 개발, 테스트 및 검증할 수 있는 테스트베드와 규제 샌드박스가 포함되어야 합니다.
다중 모드 접근성 표준: 감각 또는 인지 장애가 있는 사용자에게도 AI 시스템이 접근 가능하도록 표준화된 다중 모드 알림 및 통신 시스템(예: 청각, 시각, 촉각, 간소화된 텍스트 신호)의 구현을 제안합니다.
인간의 감독과 책임성: 자율성이나 중대한 결정에 영향을 미치는 AI 기반 보조 기술에 대해 계층적 인간 감독 프로토콜을 권장합니다. 여기에는 신뢰성과 안전성을 보장하기 위한 이해관계자 간 다단계 검증 프로세스가 포함됩니다.
핵심 환경 테스트베드: 병원, 학교, 노후 주거 시설 등 핵심 서비스 환경을 재현하는 분야별 테스트베드 구축을 장려하여 접근성, 서비스 품질, 사용자 자율성에 대한 실제 영향 평가를 수행합니다.
시민 사회 연구 접근성: 취약 계층 사용자에 대한 특별 보호 조치를 포함하여 시민 사회 단체 및 독립 연구자가 실제 환경에서 AI 시스템을 연구할 수 있도록 안전하고 투명한 연구 접근 프레임워크를 옹호합니다.
블레치리 선언 공개 서한에 서명함으로써, 우리는 다양한 상호 보완적 접근법을 통해 AI 안전성과 접근성에 관한 글로벌 대화 강화를 위한 약속을 재확인합니다. NIST의 AI 위험 관리 프레임워크, ISO/IEC 표준, EU AI법 등 신흥 거버넌스 프레임워크의 조화를 촉구하는 동시에, 효과적인 감독은 다중 이해관계자 관점과 방법론을 통합해야 함을 강조합니다. 기술 표준과 인간 중심 설계를 연결하고 AI 라이프사이클 전반에 접근성을 내재화함으로써, 최첨단 모델이 위험을 완화할 뿐만 아니라 보조 기술이 가장 필요한 이들의 역량을 적극적으로 확장하도록 보장할 수 있습니다. 이러한 통합적 접근은 모든 지역사회와 맥락에서 AI가 인간의 존엄성, 자율성, 접근성을 증진하도록 하는 데 필수적입니다.
• • •
참고문헌
¹ 영국 정부. "2023년 11월 1-2일 블레치리 AI 안전 정상회의 참가국 선언문." GOV.UK. 2023년 11월 1일.
² 영국 정부. "2023 블레치리 파크 AI 안전 정상회의 의장 요약." GOV.UK. 2023년 11월 2일.
³ NIST. "인공지능 위험 관리 프레임워크(AI RMF 1.0)." NIST AI.100-1. 미국국립표준기술원. 2023년 1월 26일.
⁴ 국제표준화기구. "ISO/IEC 23894:2023 - 정보기술 — 인공지능 — 위험 관리 지침." 2023.
⁵ OECD.AI. "AI 사고 모니터(AIM) - 글로벌 AI 사고 및 위험 플랫폼." 2023.
⁶ OECD. "AI 사고 및 관련 용어 정의." 경제협력개발기구. 2024.