[AR] منظمة الصحة العالمية: إرشادات بشأن النماذج المتعددة الوسائط الكبيرة

EN, AR

هذه الصفحة ترجمة للمقال الأصلي باللغة الإنجليزية. يرجى الملاحظة أن واجهة التنقل متوفرة باللغة الإنجليزية فقط.

قدمنا مساهمات إلى الإرشادات الشاملة لمنظمة الصحة العالمية بشأن إدارة النماذج المتعددة الوسائط الكبيرة (LMMs)، وهي مجموعة فرعية من الذكاء الاصطناعي التوليدي، لتطبيقاتها في مجال الرعاية الصحية. تستند الإرشادات إلى إطار عمل منظمة الصحة العالمية لعام 2021 بشأن أخلاقيات الذكاء الاصطناعي وتهدف إلى مساعدة الدول الأعضاء على تقييم آثار النماذج المتعددة الوسائط الكبيرة وتحديد المسارات التنظيمية لنشرها بطريقة أخلاقية وآمنة ومنصفة.

ذات صلة

مجلس الوصول الأمريكي: أمر تنفيذي بشأن الذكاء الاصطناعي وإمكانية الوصول

NIST: ملف تعريف الذكاء الاصطناعي التوليدي (AI 600-1) وإطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF)

PCAST: مجموعة العمل المعنية بالذكاء الاصطناعي التوليدي (محدث)

WEF: إمكانات الذكاء الاصطناعي التوليدي في مجال إمكانية الوصول

إحصائيات ورؤى أساسية

تمثل النماذج المتعددة الوسائط الكبيرة أسرع معدل اعتماد لأي تقنية استهلاكية في التاريخ، حيث وصل عدد مستخدمي ChatGPT إلى 100 مليون مستخدم في غضون شهرين (يناير 2023). يمكن لهذه النماذج معالجة وإنشاء أنواع متعددة من البيانات — النصوص والصور والصوت والفيديو — ويجري تجريبها في مجالات الرعاية السريرية والتعليم والمهام المكتبية والبحوث. اجتازت عدة نماذج متعددة الوسائط الكبيرة امتحان الترخيص الطبي في الولايات المتحدة، على الرغم من أن الأداء لا يزال متغيرًا خارج مجموعات البيانات الممثلة جيدًا.

تُظهر مجموعات البيانات التدريبية نطاقًا وتنوعًا كبيرين عبر التطبيقات الطبية. ومن الأمثلة على ذلك النماذج التي تم تدريبها على أكثر من 30,000 تقرير حالة طبية، وأكثر من 100,000 صورة أشعة سينية للصدر، وملايين السجلات الصحية الإلكترونية. تُظهر تقييمات الأداء نتائج متفاوتة، حيث تشير دراسة أمريكية أجريت في عام 2023 إلى أن ردود ChatGPT كانت مفضلة على ردود الأطباء في حوالي 80٪ من 195 حالة تم تحليلها من منتدى طبي عبر الإنترنت.

نظرة عامة على المخاطر

الدقة: تظهر الدراسات معدلات هلوسة تتراوح بين 3 و27٪، اعتمادًا على الموجه والنموذج.

التحيز: غالبًا ما تمثل بيانات التدريب المناطق ذات الدخل المرتفع بشكل مفرط؛ على سبيل المثال، تميل مجموعات البيانات الجينية نحو الأشخاص من أصل أوروبي.

تحيز الأتمتة: قد يعتمد الأطباء بشكل مفرط على مخرجات الذكاء الاصطناعي، مما يعرضهم لخطر الأخطاء السريرية.

التأثير البيئي: تساهم النماذج المتعددة الوسائط الكبيرة بشكل كبير في البصمة الكربونية والمائية، مما يثير مخاوف بشأن الاستدامة.

تطرح الآثار المترتبة على القوى العاملة تحديات متعددة الأوجه. قد تحل النماذج المتعددة الوسائط الكبيرة محل بعض الأدوار الصحية، بينما تتطلب في الوقت نفسه مهارات جديدة ومبادرات إعادة تدريب. يمكن أن تؤدي هذه التكنولوجيا إلى ظروف عمل منخفضة الأجر ومرهقة نفسيًا في مجال البيانات. تواجه استقلالية المرضى مخاطر خاصة من خلال إجراءات الموافقة المستنيرة المعرضة للخلل والظلم المعرفي، حيث تعاني الفئات المهمشة من ضعف غير متناسب.

إطار الحوكمة

توصي منظمة الصحة العالمية باتخاذ إجراءات منظمة عبر دورة حياة الذكاء الاصطناعي: التطوير ← التوفير ← النشر.

مرحلة التطوير — المسؤوليات

المطورون

إجراء تقييمات لأثر حماية البيانات

إشراك مختلف أصحاب المصلحة

تحسين كفاءة الطاقة

توفير الشفافية بشأن بيانات التدريب

الحكومات

سن قوانين قوية لحماية البيانات

فرض معايير ما قبل الاعتماد والمعايير القائمة على النتائج

تمويل النماذج المتعددة الوسائط الكبيرة مفتوحة المصدر

فرض المساءلة عن الكربون والمياه

مرحلة التوفير: يجب على الحكومات تعيين سلطة موافقة تنظيمية، وفرض تدقيق من طرف ثالث وشفافية فيما يتعلق بالرمز المصدري وإدخال البيانات، وتطبيق قوانين حماية المستهلك، وحظر الاستخدام التجريبي من دون تجارب منضبطة.

مرحلة النشر: يجب على الجهات المنفذة (مثل الوزارات والمستشفيات) تجنب استخدام النماذج المتعددة الوسائط الكبيرة في بيئات غير مناسبة، والإفصاح عن المخاطر بصراحة، وضمان التسعير العادل والوصول اللغوي، وتدريب المهنيين على قيود هذه النماذج والأمن السيبراني والاستخدام الأخلاقي.

يستند إطار عمل منظمة الصحة العالمية إلى ستة مبادئ أخلاقية أساسية: حماية الاستقلالية، وتعزيز الرفاهية والسلامة، وضمان الشفافية والقابلية للتفسير، وتعزيز المساءلة، وضمان الشمولية والإنصاف، وتعزيز الاستدامة. لتعزيز حماية المستخدمين، توصي الإرشادات الحكومات بالنظر في أنظمة المسؤولية الصارمة، وآليات التعويض من دون إثبات الخطأ، وافتراضات السببية لتقليل العوائق التي تحول دون الحصول على الجبر. كما تحث منظمة الصحة العالمية على الحوكمة الدولية العادلة، التي لا تشمل الدول والشركات ذات الدخل المرتفع فحسب، بل تشمل أيضًا البلدان ذات الدخل المنخفض والمتوسط والمجتمع المدني والمؤسسات المتعددة الأطراف من خلال نموذج للتعددية الشبكية.

• • •

المراجع

¹ منظمة الصحة العالمية. "أخلاقيات وحوكمة الذكاء الاصطناعي في مجال الصحة: إرشادات بشأن النماذج المتعددة الوسائط الكبيرة." جنيف: منظمة الصحة العالمية؛ 2024. ISBN: 978-92-4-008475-9.

² منظمة الصحة العالمية. "منظمة الصحة العالمية تصدر إرشادات بشأن أخلاقيات الذكاء الاصطناعي وحوكمته للنماذج الكبيرة متعددة الوسائط." 18 يناير 2024.

³ منظمة الصحة العالمية. "أخلاقيات الذكاء الاصطناعي وحوكمته في مجال الصحة: إرشادات منظمة الصحة العالمية." جنيف: منظمة الصحة العالمية؛ 2021. ISBN: 978-92-4-003419-8.

⁴ منظمة الصحة العالمية. "منظمة الصحة العالمية تصدر أول تقرير عالمي عن الذكاء الاصطناعي (AI) في مجال الصحة وستة مبادئ توجيهية لتصميمه واستخدامه." 28 يونيو 2021.

⁵ WHO IRIS (المستودع المؤسسي لتبادل المعلومات). "أخلاقيات وحوكمة الذكاء الاصطناعي في مجال الصحة." 2021.

⁶ منظمة الصحة العالمية، كبير العلماء وقسم العلوم، وحدة أخلاقيات الصحة والحوكمة. "أخلاقيات وحوكمة الذكاء الاصطناعي في مجال الصحة: إرشادات بشأن النماذج الكبيرة متعددة الوسائط." 2024.

⁷ المركز الوطني لمعلومات التكنولوجيا الحيوية، PMC. "النماذج الكبيرة متعددة الوسائط — حاضر أو مستقبل الذكاء الاصطناعي في الطب؟" PMC10915764. مارس 2024.

⁸ Nature Digital Medicine. "المبادرة العالمية بشأن الذكاء الاصطناعي من أجل الصحة (GI-AI4H): الأولويات الاستراتيجية لتعزيز الحوكمة في جميع أنحاء الأمم المتحدة." 2025.

⁹ المركز الوطني لمعلومات التكنولوجيا الحيوية، PMC. "أخلاقيات تطوير الذكاء الاصطناعي في الرعاية الصحية: تحليل الاعتبارات الأخلاقية لنظام المستشفيات المبتكر القائم على الذكاء الاصطناعي في اليابان." PMC10390248. 2023.