Dünya Sağlık Örgütü: Büyük Çok Modlu Modeller Hakkında Kılavuz [TR]

Mevcut diller: EN, TR

Bu sayfa orijinal İngilizce makalenin çevirisidir. Lütfen navigasyonun yalnızca İngilizce olarak mevcut olduğunu unutmayın.

Sağlık hizmetlerinde kullanılmak üzere, üretken yapay zekanın bir alt kümesi olan büyük çok modlu modellerin (LMM) yönetimi hakkında Dünya Sağlık Örgütü'nün kapsamlı kılavuzuna katkı sağladık. Kılavuz, WHO'nun 2021 yapay zeka etiği çerçevesine dayanmaktadır ve üye ülkelerin LMM'lerin etkilerini değerlendirmesine ve etik, güvenli ve eşitlikçi bir şekilde kullanılması için düzenleyici yollar belirlemesine yardımcı olmayı amaçlamaktadır.

İlgili

Önemli İstatistikler ve İçgörüler

LMM'ler, ChatGPT'nin iki ayda (Ocak 2023) 100 milyon kullanıcıya ulaşmasıyla, tarihteki herhangi bir tüketici teknolojisinin en hızlı benimsenme oranını temsil etmektedir. Bu modeller, metin, görüntü, ses, video gibi çok sayıda veri türünü işleyebilir ve üretebilir ve klinik bakım, eğitim, büro işleri ve araştırma alanlarında pilot olarak kullanılmaktadır. Birkaç LMM, ABD Tıp Lisans Sınavını geçmiştir, ancak performans, iyi temsil edilen veri kümeleri dışında değişkenliğini korumaktadır.

Eğitim veri setleri, tıbbi uygulamalar genelinde önemli bir ölçek ve çeşitlilik göstermektedir. Örnekler arasında 30.000'den fazla tıbbi vaka raporu, 100.000'den fazla göğüs röntgeni ve milyonlarca elektronik sağlık kaydı ile eğitilmiş modeller bulunmaktadır. Performans değerlendirmeleri farklı sonuçlar göstermektedir. 2023 yılında ABD'de yapılan bir araştırma, çevrimiçi bir tıp forumunda analiz edilen 195 vakanın yaklaşık %80'inde ChatGPT yanıtlarının doktorların yanıtlarına tercih edildiğini göstermektedir.

Risk Özeti

  • Doğruluk: Çalışmalar, komut ve modele bağlı olarak %3-27 arasında halüsinasyon oranları olduğunu göstermektedir.

  • Önyargı: Eğitim verileri genellikle yüksek gelirli bölgeleri aşırı temsil etmektedir; örneğin, genetik veri kümeleri Avrupa kökenli kişilere doğru eğilim göstermektedir.

  • Otomasyon Önyargısı: Doktorlar, klinik hatalar riskine yol açarak AI çıktılarına aşırı güvenebilirler.

  • Çevresel Etki: LMM'ler karbon ve su ayak izlerine önemli ölçüde katkıda bulunarak sürdürülebilirlik endişelerini artırmaktadır.

İşgücü üzerindeki etkileri çok yönlü zorluklar yaratmaktadır. LMM'ler belirli sağlık rollerini ortadan kaldırabilirken, aynı zamanda yeni beceriler ve yeniden eğitim girişimleri gerektirmektedir. Bu teknoloji, düşük ücretli, psikolojik olarak zorlu veri işçiliği koşullarına yol açabilir. Hasta özerkliği, bilgilendirilmiş onam süreçlerinin tehlikeye atılması ve epistemik adaletsizlik nedeniyle özel risklerle karşı karşıyadır ve marjinal gruplar orantısız bir şekilde savunmasız kalmaktadır.

Yönetişim Çerçevesi

DSÖ, AI yaşam döngüsü boyunca yapılandırılmış eylemler önermektedir: Geliştirme → Sağlama → Dağıtım.

Geliştirme Aşaması – Sorumluluklar

Geliştiriciler

  • Veri koruma etki değerlendirmeleri yapmak

  • Çeşitli paydaşları dahil etmek

  • Enerji verimliliğini optimize etmek

  • Eğitim verileri konusunda şeffaflık sağlamak

Hükümetler

  • Güçlü veri koruma yasaları çıkarmak

  • Ön sertifikasyon ve sonuç odaklı standartları zorunlu kılmak

  • Açık kaynaklı LMM'leri finanse etmek

  • Karbon ve su hesap verebilirliğini uygulamak

Sağlama Aşaması: Hükümetler, düzenleyici onay yetkisi atamalı, kaynak kodu ve veri girişi konusunda üçüncü taraf denetimleri ve şeffaflık talep etmeli, tüketici koruma yasalarını uygulamalı ve denetimsiz deneme amaçlı kullanımları yasaklamalıdır.

Dağıtım Aşaması: Dağıtıcılar (ör. bakanlıklar, hastaneler), uygun olmayan ortamlarda LMM kullanımından kaçınmalı, riskleri açıkça iletmeli, adil fiyatlandırma ve dil erişimi sağlamalı ve profesyonelleri LMM sınırlamaları, siber güvenlik ve etik kullanım konusunda eğitmelidir.

WHO çerçevesi altı temel etik ilkeye dayanmaktadır: Özerkliği Korumak, Refah ve Güvenliği Teşvik Etmek, Şeffaflık ve Açıklanabilirliği Sağlamak, Hesap Verebilirliği Teşvik Etmek, Kapsayıcılık ve Eşitliği Sağlamak ve Sürdürülebilirliği Teşvik Etmek. Kullanıcı korumasını güçlendirmek için kılavuz, hükümetlerin tazminat engellerini azaltmak için katı sorumluluk rejimleri, kusursuz tazminat mekanizmaları ve nedensellik varsayımlarını dikkate almasını önermektedir. WHO ayrıca, yüksek gelirli ülkeler ve şirketlerin yanı sıra düşük ve orta gelirli ülkeler, sivil toplum ve çok taraflı kurumları da içeren, ağ bağlantılı çok taraflılık modelini içeren adil bir uluslararası yönetişimi teşvik etmektedir.

• • •

Referanslar

¹ Dünya Sağlık Örgütü. "Sağlık için yapay zeka etiği ve yönetişimi: Büyük çok modlu modeller hakkında kılavuz." Cenevre: WHO; 2024. ISBN: 978-92-4-008475-9.

² Dünya Sağlık Örgütü. "WHO, büyük çok modlu modeller için yapay zeka etiği ve yönetişimi kılavuzunu yayınladı." 18 Ocak 2024.

³ Dünya Sağlık Örgütü. "Sağlık için yapay zekanın etiği ve yönetişimi: WHO kılavuzu." Cenevre: WHO; 2021. ISBN: 978-92-4-003419-8.

⁴ Dünya Sağlık Örgütü. "DSÖ, sağlık alanında yapay zeka (AI) ve bunun tasarımı ve kullanımı için altı kılavuz ilke hakkında ilk küresel raporunu yayınladı." 28 Haziran 2021.

⁵ DSÖ IRIS (Bilgi Paylaşımı için Kurumsal Arşiv). "Sağlık için yapay zekanın etiği ve yönetişimi." 2021.

⁶ Dünya Sağlık Örgütü, Baş Bilim İnsanı ve Bilim Bölümü, Sağlık Etiği ve Yönetişim Birimi. "Sağlık için yapay zekanın etiği ve yönetişimi: Büyük çok modlu modeller hakkında kılavuz." 2024.

⁷ Ulusal Biyoteknoloji Bilgi Merkezi, PMC. "Büyük çok modlu modeller – tıpta yapay zekanın bugünü mü, geleceği mi?" PMC10915764. Mart 2024.

⁸ Nature Digital Medicine. "Sağlık için Yapay Zeka Küresel Girişimi (GI-AI4H): Birleşmiş Milletler genelinde yönetişimi ilerleten stratejik öncelikler." 2025.

⁹ Ulusal Biyoteknoloji Bilgi Merkezi, PMC. "Sağlık hizmetlerinde yapay zekanın ilerletilmesinin etiği: Japonya'nın yenilikçi yapay zeka hastane sistemi için etik hususların analizi." PMC10390248. 2023.