Seul Deklarasyonu ve Sınır AI Güvenliği Taahhütleri [TR]

Mevcut diller: EN, TR

Bu sayfa orijinal İngilizce makalenin çevirisidir. Lütfen navigasyonun yalnızca İngilizce olarak mevcut olduğunu unutmayın.

Güvenli, Yenilikçi ve Kapsayıcı AI için Seul Deklarasyonu'nun ardından, modellerin ve ilgili kritik altyapının her iki yönünü de içeren şekilde, algoritmaların kamu, yardımcı ve erişilebilirlik taksonomilerini güvenli bir şekilde nasıl destekleyebileceğini daha da genişletmek için Kore AI Güvenliği'ne katıldık.

İlgili

Seul AI Güvenliği Deklarasyonu, 21 Mayıs 2024 tarihinde AI Seul Zirvesi sırasında kabul edildi ve önceki yıl yayınlanan Bletchley Deklarasyonu'nu temel alıyor. 10 ülke ve Avrupa Birliği liderleri tarafından imzalanan deklarasyon, yapay zekanın (AI) güvenli, yenilikçi ve kapsayıcı bir şekilde geliştirilmesini sağlamak için uluslararası işbirliğinin gerekliliğini vurguluyor. Deklarasyon, hukukun üstünlüğü ile uyumlu, insan merkezli AI'nın önemini vurgulamaktadır. Ayrıca, AI'nın getirdiği zorlukları ve fırsatları ele almak için dijital uçurumların kapatılması ve küresel işbirliğinin güçlendirilmesini önermektedir.

Seul Zirvesi'nin temel sonuçları arasında, AI güvenlik enstitülerinden oluşan uluslararası bir ağın oluşturulması yer almaktadır. Bu ağ, İngiltere, ABD, Japonya, Fransa, Almanya, İtalya, Singapur, Güney Kore, Avustralya, Kanada ve Avrupa Birliği'nden kuruluşları bir araya getirmektedir. Ağın amacı, güvenlik araştırmaları konusunda işbirliğini teşvik etmek, en iyi uygulamaları paylaşmak ve AI güvenliğini geliştirmek için teknik kaynaklar geliştirmektir.

Zirvenin bir diğer sonucu, Sınır AI Güvenlik Taahhütleri (Frontier AI Safety Commitments) adlı belgenin yayınlanmasıdır. Amazon, Google, Meta, Microsoft, Anthropic ve OpenAI dahil olmak üzere on altı küresel AI şirketi, gelişmiş AI sistemlerinin oluşturduğu "tolere edilemez riskleri" tanımlayıp açıklamayı taahhüt etmiştir. Bu taahhütler, siber güvenlik, model özerkliği ve toplumsal aksamalar gibi önemli alanlara odaklanmaktadır. Şirketler, şeffaflığı artırmak, iç ve dış kırmızı takım çalışmaları yürütmek ve üçüncü tarafların güvenlik açıklarını bildirmelerini teşvik etmek gibi risk yönetimi stratejilerini özetleyen güvenlik çerçeveleri yayınlamayı taahhüt etmişlerdir. Bu çabalar, proaktif risk yönetimi ve güvenli AI geliştirme için küresel standartların oluşturulması yolunda önemli bir adımdır.

Sınır AI Güvenlik Taahhütleri

Deklarasyon, Sınır AI Güvenlik Taahhütleri ile tamamlanmaktadır. Bu taahhütler, güçlü, genel amaçlı yapay zeka modelleriyle ilişkili ciddi riskleri yönetmek için önde gelen yapay zeka kuruluşlarının gönüllü olarak verdikleri bir dizi taahhüttür.

  • Sıkı Risk Değerlendirmesi: Şirketler, yapay zeka modellerini eğitim öncesinde ve sırasında ve uygulamaya koymadan önce olası zararları değerlendirmeyi taahhüt ederler. Bu, hem iç testleri hem de dış değerlendirmeleri içerir.

  • "Tolere Edilemez" Risklerin Tanımlanması ve Yönetilmesi: Önemli bir taahhüt, ciddi ve kabul edilemez riskler için net eşikler belirlemektir. Bu eşikler aşıldığında ve riskleri azaltma önlemleri yetersiz kaldığında, kuruluşlar modeli hiç geliştirmeyeceklerini veya kullanıma sunmayacaklarını taahhüt ederler.

  • Güçlü Yönetişim ve Şeffaflık: Bu, güçlü iç güvenlik çerçeveleri oluşturmayı, ilerlemeyi kamuya raporlamayı, "kırmızı takım" (AI stres testi) için dış uzmanlarla işbirliği yapmayı, siber güvenliği artırmayı ve model yetenekleri ve riskleri hakkında bilgileri seçici bir şekilde paylaşmayı içerir.

AI Güvenliği ve Kamu Sistemleri

Kamuoyundaki tartışmalara yaptığımız katkı ve katılım, Sınır AI Güvenlik Taahhütlerinin, Büyük Dil Modelleri (LLM'ler), Küçük Dil Modelleri (SLM'ler), Görme-Dil Modelleri (VLM'ler) ve yeni ortaya çıkan 3D Temel Modeller ile çok modlu kapasiteler gibi temel ve uygulamalı AI modellerine odaklanarak, kamu ve yardımcı sistemlerin geniş protokolleri ve taksonomisi ile uyumlu hale getirilmesi için nasıl daha da geliştirilebileceğini içermektedir. Bu modeller, yardımcı teknolojiler, sağlık hizmetleri ve kamu bağlamları için kritik öneme sahiptir. AI Güvenlik Enstitüleri, yardımcı robotikten erişilebilirlik araçlarına kadar geniş bir yelpazedeki sistemleri ve arayüzleri kapsayacak şekilde çabalarını ve kapasitelerini yapılandırmalıdır. AI modellerinin güvenli ve erişilebilir olmasını sağlamak için, gerçek dünya koşullarını simüle eden düzenleyici sanal ortamlara ve test ortamlarına özel dikkat gösterilmelidir. Örneğin, sesle çalışan cihazlar veya hareket yardımcıları gibi yardımcı AI sistemleri, özellikle çeşitli bilişsel, duyusal veya fiziksel engelleri olan kullanıcılarla etkileşimde bulunurken güvenli bir şekilde çalıştıklarından emin olmak için bu ortamlarda uyumluluk testlerinden geçmelidir.

Sınır AI modelleri, veri gereksinimleri, hesaplama gücü, elektrik tüketimi ve sektörler arası siber dayanıklılık gibi kritik teknik faktörlere göre değerlendirilmelidir. Bu değerlendirme, işyerleri, sağlık hizmetleri ve eğitim gibi yüksek riskli kamusal alanlar üzerindeki pratik etkisini de dikkate almalıdır.

Riskler ve eşikler, sadece teorik kapasitelerle değil, gerçek dünya uygulamalarıyla tanımlanmalıdır. Örneğin, yardımcı teknolojilerde veya sağlık hizmetlerinde bir 3D temel modelin kullanılması, kötüye kullanımı önlemek için sağlamlık açısından titiz bir değerlendirme gerektirir. Son olarak, kamuoyunun görüşlerini yansıtarak, AI geliştiricileri, risk yönetimi stratejilerinin etkinliği hakkında daha net bir resim sunmak için, önlem alma öncesi ve sonrası güvenlik değerlendirmelerini açıklamalıdır.

• • •

Referanslar

¹ Birleşik Krallık Hükümeti. "Liderler Oturumuna Katılan Katılımcılar Tarafından Güvenli, Yenilikçi ve Kapsayıcı Yapay Zeka için Seul Deklarasyonu: Yapay Zeka Seul Zirvesi, 21 Mayıs 2024." GOV.UK. 21 Mayıs 2024.

² Birleşik Krallık Hükümeti. "Yapay Zeka Güvenliği Bilimi Konusunda Uluslararası İşbirliğine Yönelik Seul Niyet Beyanı, Yapay Zeka Seul Zirvesi 2024 (Ek)." GOV.UK. 21 Mayıs 2024.

³ Birleşik Krallık Hükümeti. "Sınır AI Güvenliği Taahhütleri, AI Seul Zirvesi 2024." GOV.UK. 21 Mayıs 2024.

⁴ Birleşik Krallık Hükümeti. "AI güvenliği, yenilikçiliği ve kapsayıcılığını ilerletmek için Seul Bakanlar Bildirisi: AI Seul Zirvesi 2024." GOV.UK. 22 Mayıs 2024.

⁵ Stratejik ve Uluslararası Çalışmalar Merkezi. "AI Seul Zirvesi." 15 Ekim 2024.

⁶ Amerika Kore Ekonomi Enstitüsü. "AI Seul Zirvesi'nde Başlatılan Önemli Taahhütler." 29 Mayıs 2024.