OECD: G7 Hiroşima Yapay Zeka Süreci Raporlama Çerçevesi (HAIP)[TR]

Mevcut diller: EN, TR

Bu sayfa orijinal İngilizce makalenin çevirisidir. Lütfen navigasyonun yalnızca İngilizce olarak mevcut olduğunu unutmayın.

OECD destekli G7 Hiroşima Yapay Zeka Süreci’ne yönelik çalışma grubuna katkı sunduk ve Raporlama Çerçevesi’nin (HAIP) (1) hayata geçirilmesi çağrısına destek verdik. Çerçeve, katılımcısı olduğumuz Paris Yapay Zeka Eylem Zirvesi’nde tanıtıldı. Zirve kapsamında erişilebilirlik odaklı yapay zeka konusunda geliştirdiğimiz MOOC’tan bölümler sunduk; aynı zamanda katkılarımızın yer aldığı iki rapor ve kamuoyu danışması sürecine tanıklık ettik.

Bu Raporlama Çerçevesi, 2023 yılında Japonya G7 Dönem Başkanlığı döneminde benimsenen ve 2024’te İtalya G7 Dönem Başkanlığı döneminde daha da geliştirilen G7 Hiroşima Yapay Zeka Süreci’nin doğrudan bir ürünüdür. Çerçeve, gelişmiş yapay zeka sistemlerinin geliştirilmesinde şeffaflığı ve hesap verebilirliği teşvik etmeye yönelik önemli bir girişim olan Hiroşima YZ Süreci Gelişmiş YZ Sistemleri Geliştiren Kuruluşlar için Uluslararası Davranış Kuralları’na dayanmaktadır. G7’nin talebi doğrultusunda ve Trento Deklarasyonu ile uyumlu biçimde OECD, Kurallar’ın gönüllü olarak benimsenmesini izleyecek mekanizmaları belirleme göreviyle yükümlü kılınmıştır.

İlgili

G7 Hiroşima Yapay Zeka Süreci

Hiroşima Yapay Zeka Süreci, başta temel modeller ve üretici yapay zeka olmak üzere gelişmiş yapay zeka sistemlerinin yönetimi için ortak ilke ve uygulamalar oluşturma ihtiyacına yanıt vermektedir. Süreç, OECD Yapay Zeka İlkeleri’ni temel alarak yapay zekanın geliştirilmesi, kullanımı ve dağıtımında risk temelli ve insan haklarıyla uyumlu uygulamaları bir çerçeveye oturtmayı amaçlamaktadır.

Hiroşima İlkeleri, yaşam döngüsü risk azaltımı, dağıtım sonrası izleme, şeffaflık ve güvenlik kontrollerinden yapay zekanın sağlık, iklim ve eğitim gibi küresel sorunların çözümünde sorumlu kullanımına kadar 11 temel alanı kapsamaktadır. Bu ilkeler, geniş paydaş katılımıyla geliştirilen, yaşayan ve uyarlanabilir bir çerçeve olarak tasarlanmıştır.

HAIP Raporlama Çerçevesi

HAIP Raporlama Çerçevesi, kuruluşların risk azaltım önlemlerini, güvenlik protokollerini, yönetişim mekanizmalarını ve şeffaflık uygulamalarını belgeleyip kamuoyuyla paylaşmasına destek olmak amacıyla tasarlanmış gönüllü bir raporlama aracıdır.

HAIP Raporlama Çerçevesi’nin temel özellikleri şunlardır:

  • Kapsamlı kapsam: yapay zeka yönetişimi alanlarının uluslararası en iyi uygulamalarla uyumunu güvence altına alma.

  • Şeffaflık raporlaması: sistem yetenekleri, kısıtlamaları ve kötüye kullanım senaryoları hakkında kamuya açıklama.

  • Yönetişim politikalarının belgelenmesi: veri yönetimi ve piyasaya çıkış sonrası olay izleme de dahil olmak üzere.

  • İçerik kaynağı ve kimlik doğrulama mekanizmaları: mümkün olduğunda filigran kullanımı da dahil.

Pilot Aşama Uygulama Verileri

19 Temmuz – 6 Eylül 2024 tarihleri arasında yürütülen pilot aşama, 10 ülkeden — Kanada, Danimarka, Almanya, İsrail, Japonya, Hollanda, İspanya, İsviçre, Birleşik Krallık ve Amerika Birleşik Devletleri’nden — 20 kuruluşun katılımıyla çok paydaşlı kapsamlı geri bildirimler üretmiştir. Katılımcı kuruluşlar arasında büyük teknoloji şirketleri, girişimler, yapay zeka sistem geliştiricileri, küresel teknoloji şirketleri, araştırma enstitüleri, akademik kurumlar ve yapay zeka uyum danışmanlık firmaları yer almıştır.

Pilot Bulgular Özeti:

  • 14 kuruluş, raporlama süreçlerini sadeleştirmek için tekrarlı soruların birleştirilmesini talep etti.

  • 13 kuruluş, madde işaretleri ve köprüler dahil gelişmiş biçimlendirme seçenekleri talep etti.

  • 12 kuruluş, kelime sınırları ve örnekler içeren daha açık anket talimatları istedi.

  • 9 katılımcı, “gelişmiş yapay zeka sistemleri”, “makul olmayan riskler” ve “önemli olaylar” gibi muğlak temel terimlerin açıklanmasını istedi.

  • 6 kuruluş, mevcut gönüllü raporlama mekanizmalarıyla (Frontier AI Safety Commitments, White House AI Voluntary Commitments) daha iyi uyum sağlanmasını önerdi.

Yönetişim İlkeleri ve Teknik Gereklilikler

Çerçeve, yapay zeka yaşam döngüsü boyunca kapsamlı risk değerlendirmesi yapılmasını zorunlu kılmakta; kuruluwların kırmızı takım metodolojileri de dahil olmak üzere çeşitli iç ve bağımsız dış test önlemleri uygulamasını gerektirmektedir. Teknik gereklilikler, model ağırlıkları, algoritmalar, sunucular ve veri setleri için fiziksel güvenlik, siber güvenlik ve içeriden kaynaklanan tehditlere karşı sağlam güvenlik kontrollerini kapsamaktadır.

Temel Teknik Taahhütler:

  • Filigran ve tanımlama teknikleri aracılığıyla içerik kimlik doğrulama ve kaynak mekanizmaları

  • Veri setleri, süreçler ve geliştirme kararları için izlenebilirlik sistemleri

  • Tüm önemli gelişmiş yapay zeka sistemi sürümleri için şeffaflık raporlaması

  • Sektör, hükümet, sivil toplum ve akademi arasında sorumlu bilgi paylaşımı protokolleri

  • Standart Geliştirme Kuruluşları (SDO’lar) ile uluslararası teknik standart geliştirme iş birliği

Risk Azaltma ve İzleme Çerçevesi

Kuruluşlar; güvenlik açığı tespiti, olay analizi ve kötüye kullanım izleme amacıyla gizlilik önlemlerini ve dağıtım sonrası izlemeyi kapsayan risk temelli yönetişim politikaları oluşturmalıdır. Çerçeve, demokratik değerleri zedeleyen, topluluklara zarar veren, terörizmi kolaylaştıran, suç faaliyetlerini mümkün kılan ya da ciddi güvenlik riskleri oluşturan yapay zeka sistemlerini yasaklamakta; bu yaklaşımıyla uluslararası insan hakları hukuku ve BM İş Dünyası ve İnsan Hakları Rehber İlkeleri’yle uyum içindedir.

Uluslararası Koordinasyon ve Standart Geliştirme

Girişim, OECD, Yapay Zeka Küresel Ortaklığı (GPAI) ve çok paydaşlı iş birliği aracılığıyla uluslararası teknik standartların geliştirilmesine katkı sunmaktadır. Yargı bölgeleri, temel izleme ilkelerine bağlı kalarak uygulama esnekliğini korumaktadır. OECD İş Dünyası (BIAC), düzenleyici birlikte çalışabilirlik, sınır ötesi iş birliği ve yargı bölgeleri arasında şeffaf yapay zeka teknolojisi erişimi açısından çerçeveyi desteklemektedir.

Veri Koruma ve Etik Yapay Zeka Geliştirme

Çerçeve; zararlı önyargıları azaltmak için eğitim verisi denetimini kapsayan veri kalitesi yönetimini ve yürürlükteki hukuki çerçeveler kapsamında veri setlerine ilişkin şeffaflık yükümlülüklerini gerektirmektedir. Öncelikli geliştirme hedefleri; iklim krizi, sağlık ve eğitim gibi küresel sorunlara odaklanmakta; sorumlu, insan merkezli yapay zeka yönetimi ve dijital okuryazarlığın geliştirilmesi yoluyla BM Sürdürülebilir Kalkınma Hedefleri’ne katkı sunmaktadır.

Uygulama Takvimi ve Güncel Durum

Operasyonel raporlama çerçevesi, 7 Şubat 2025’te Paris’teki Yapay Zeka Eylem Zirvesi’nde hayata geçirilmiştir. İlk raporlama döngüsü için son başvuru tarihi 15 Nisan 2025 olup yayın tarihi Haziran 2025 olarak planlanmıştır.

Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce ve Softbank Corp. gibi önde gelen yapay zeka geliştiricileri ilk çerçeveye katılım taahhüdü vermiştir. Başvuruların, ticari açıdan hassas bilgiler dışarıda tutularak OECD tarafından oluşturulan özel şeffaflık platformu aracılığıyla kamuoyuyla paylaşılması beklenmektedir.

Kapsamlı çerçeve, gelişmiş yapay zeka yönetişimi konusundaki uluslararası uzlaşıyı yansıtmakta; farklı kurumsal bağlamlar ve yargı sistemleri genelinde yeni teknolojilerin geliştirilmesi ve dağıtımında inovasyona elverişli yaklaşımları sürdürürken ölçülebilir hesap verebilirlik mekanizmaları oluşturmaktadır. Bu girişim, uluslararası iş birliğinin yapay zeka yönetişimindeki ilerlemeyi nasıl hızlandırabileceğini somut biçimde ortaya koymakta; küresel ölçekte şeffaflık ve risk yönetimi uygulamaları için standartlaştırılmış beklentiler yaratmaktadır.

• • •

Kaynaklar

¹ Ekonomik İşbirliği ve Kalkınma Örgütü. “G7 Hiroşima Yapay Zeka Süreci: Gelişmiş Yapay Zeka Sistemleri Geliştiren Kuruluşlar için Uluslararası Davranış Kuralları.” OECD. 2023.

² Ekonomik İşbirliği ve Kalkınma Örgütü. “HAIP: Hiroşima Yapay Zeka Süreci Raporlama Çerçevesi.” OECD. 2024.

³ G7 İtalya. “Hiroşima Yapay Zeka Süreci ve Trento Diyalog Sonuçları Bakanlar Deklarasyonu.” İtalyan G7 Dönem Başkanlığı. 2024.

⁴ OECD.AI Politika Gözlemevi. “Yapay Zeka Sistemlerinin Sınıflandırılmasına İlişkin OECD Çerçevesi.” OECD. 2022.

⁵ OECD.AI Politika Gözlemevi. “OECD Yapay Zeka İlkeleri: Yapay Zeka Konusunda Konsey Tavsiye Kararı.” OECD. 2019.

⁶ Ekonomik İşbirliği ve Kalkınma Örgütü. “HAIP Raporlama Çerçevesi Pilot Aşama Özeti.” OECD. 2025.