[AR] إعلان سيول والتزامات سلامة الذكاء الاصطناعي المتقدم

EN, AR

هذه الصفحة ترجمة للمقال الأصلي باللغة الإنجليزية. يرجى الملاحظة أن واجهة التنقل متوفرة باللغة الإنجليزية فقط.

إثر صدور إعلان سيول من أجل ذكاء اصطناعي آمن ومبتكر وشامل، انضممنا إلى مبادرة كوريا لسلامة الذكاء الاصطناعي لتوسيع نطاق الفهم حول كيفية توظيف الخوارزميات في تعزيز التصنيفات العامة والنُظم المساعِدة وإتاحة إمكانية الوصول على نحو آمن، بما يشمل جوانب النماذج والبنية التحتية الحيوية ذات الصلة.

ذات صلة

إعلان بلتشلي وسلامة الذكاء الاصطناعي

ميثاق الذكاء الاصطناعي والخطوات التالية لتنفيذ قانون الذكاء الاصطناعي: الوصول والأنظمة العامة

مدونة الممارسات للذكاء الاصطناعي متعدد الأغراض (مجموعات العمل 2 و3)

إعلان سيول بشأن سلامة الذكاء الاصطناعي، الذي تم اعتماده في 21 مايو 2024، خلال قمة سيول للذكاء الاصطناعي، يبني على إعلان بلتشلي الصادر في العام السابق. وقّع عليه قادة من عشر دول والاتحاد الأوروبي، ويؤكد على ضرورة التعاون الدولي لضمان تطوير آمن ومبتكر وشامل للذكاء الاصطناعي. يشدد الإعلان على أهمية اتباع نهج محوره الإنسان في الذكاء الاصطناعي، بما يتوافق مع سيادة القانون، كما يدعو إلى سد الفجوات الرقمية وتعزيز التعاون العالمي لمواجهة تحديات وفرص الذكاء الاصطناعي.

من النتائج الرئيسية لقمة سيول إنشاء شبكة دولية لمعاهد سلامة الذكاء الاصطناعي. تضم هذه الشبكة منظمات من المملكة المتحدة والولايات المتحدة واليابان وفرنسا وألمانيا وإيطاليا وسنغافورة وكوريا الجنوبية وأستراليا وكندا والاتحاد الأوروبي. تهدف الشبكة إلى تعزيز التعاون في مجال أبحاث السلامة، وتبادل أفضل الممارسات، وتطوير الموارد التقنية اللازمة للارتقاء بسلامة الذكاء الاصطناعي.

ومن النتائج الأخرى البارزة إطلاق التزامات سلامة الذكاء الاصطناعي المتقدم. تعهدت 16 شركة عالمية رائدة في مجال الذكاء الاصطناعي، بما في ذلك Amazon وGoogle وMeta وMicrosoft وAnthropic وOpenAI، بتحديد والكشف عن "المخاطر غير المقبولة" التي تشكلها نُظم الذكاء الاصطناعي المتقدمة. تركز هذه الالتزامات على مجالات رئيسية مثل الأمن السيبراني، واستقلالية النماذج، والاضطراب المجتمعي. تعهدت الشركات بنشر أُطر سلامة توضّح استراتيجياتها لإدارة المخاطر، والتي تشمل زيادة الشفافية، وإجراء اختبارات الفريق الأحمر الداخلية والخارجية، وتشجيع الإبلاغ عن الثغرات من قِبل أطراف ثالثة. تمثل هذه الجهود خطوة كبيرة نحو الإدارة الاستباقية للمخاطر وإرساء معايير عالمية لتطوير الذكاء الاصطناعي الآمن.

التزامات سلامة الذكاء الاصطناعي المتقدم

يُستكمَل الإعلان بـالتزامات سلامة الذكاء الاصطناعي المتقدم – وهي مجموعة من التعهدات الطوعية من قِبل مؤسسات رائدة في مجال الذكاء الاصطناعي لإدارة المخاطر الجسيمة المرتبطة بنماذج الذكاء الاصطناعي القوية متعددة الأغراض:

تقييم المخاطر الصارم: تلتزم الشركات بتقييم الأضرار المحتملة قبل وأثناء التدريب وقبل نشر نماذج الذكاء الاصطناعي الخاصة بها، ويشمل ذلك الاختبارات الداخلية والتقييمات الخارجية.

تحديد وإدارة المخاطر "غير المقبولة": من الالتزامات الحاسمة وضع عتبات واضحة للمخاطر الجسيمة وغير المقبولة. إذا تم بلوغ هذه العتبات ولم تكن التدابير التخفيفية كافية، تتعهد المؤسسات بعدم تطوير أو نشر النموذج على الإطلاق.

الحوكمة الرشيدة والشفافية: يتضمن ذلك إنشاء أُطر عمل داخلية قوية للسلامة، والإبلاغ العلني عن التقدم المحرز، والتعاون مع خبراء خارجيين لإجراء اختبارات "الفريق الأحمر" (اختبار الإجهاد للذكاء الاصطناعي)، وتعزيز الأمن السيبراني، ومشاركة المعلومات بشكل انتقائي حول قدرات النماذج ومخاطرها.

سلامة الذكاء الاصطناعي والنُظم العامة

تضمنت مشاركتنا ومساهمتنا في الحوار العام كيفية تطوير التزامات سلامة الذكاء الاصطناعي المتقدم لتتواءم مع بروتوكولات وتصنيفات واسعة النطاق للنُظم العامة والمساعِدة، مع التركيز على نماذج الذكاء الاصطناعي الأساسية والتطبيقية مثل نماذج اللغة الكبيرة (LLMs)، ونماذج اللغة الصغيرة (SLMs)، ونماذج الرؤية واللغة (VLMs)، ونماذج الأساس ثلاثية الأبعاد الناشئة، والقدرات متعددة الوسائط. تُعد هذه النماذج بالغة الأهمية للتقنيات المساعِدة، والرعاية الصحية، والسياقات العامة. يتعين على معاهد سلامة الذكاء الاصطناعي هيكلة جهودها وقدراتها لتشمل مجموعة واسعة من النُظم والواجهات، من الروبوتات المساعِدة إلى أدوات إمكانية الوصول. ينبغي إيلاء اهتمام خاص للبيئات التنظيمية التجريبية ومنصات الاختبار التي تحاكي الظروف الواقعية، لضمان سلامة نماذج الذكاء الاصطناعي وإتاحة الوصول إليها. على سبيل المثال، يجب أن تخضع نُظم الذكاء الاصطناعي المساعِدة، مثل الأجهزة المفعّلة بالصوت أو أدوات المساعدة على التنقل، لاختبارات الامتثال في هذه البيئات لضمان تشغيلها بأمان، لا سيما عند التفاعل مع مستخدمين ذوي قدرات معرفية أو حسية أو جسدية متنوعة.

ينبغي تقييم نماذج الذكاء الاصطناعي المتقدمة بناءً على عوامل تقنية حاسمة مثل متطلبات البيانات، والقدرة الحاسوبية، والطاقة الكهربائية، والمرونة السيبرانية عبر القطاعات. يجب أن يأخذ هذا التقييم في الاعتبار أيضًا الأثر العملي على المجالات العامة عالية المخاطر مثل أماكن العمل، والرعاية الصحية، والتعليم.

يجب تحديد المخاطر والعتبات استنادًا إلى التطبيقات الواقعية، وليس القدرات النظرية فحسب. على سبيل المثال، يتطلب نشر نموذج أساس ثلاثي الأبعاد في التقنيات المساعِدة أو الرعاية الصحية تقييمًا دقيقًا للمتانة وتجنب سوء الاستخدام. وأخيرًا، وتماشيًا مع الإسهامات العامة، ينبغي على مطوري الذكاء الاصطناعي الكشف عن تقييمات السلامة قبل وبعد التخفيف لتقديم صورة أوضح عن فعالية استراتيجيات إدارة المخاطر الخاصة بهم.

• • •

المراجع

¹ حكومة المملكة المتحدة. "إعلان سيول من أجل ذكاء اصطناعي آمن ومبتكر وشامل من قِبل المشاركين في جلسة القادة: قمة سيول للذكاء الاصطناعي، 21 مايو 2024." GOV.UK. 21 مايو 2024.

² حكومة المملكة المتحدة. "بيان نوايا سيول نحو التعاون الدولي في علوم سلامة الذكاء الاصطناعي، قمة سيول للذكاء الاصطناعي 2024 (الملحق)." GOV.UK. 21 مايو 2024.

³ حكومة المملكة المتحدة. "التزامات سلامة الذكاء الاصطناعي المتقدم، قمة سيول للذكاء الاصطناعي 2024." GOV.UK. 21 مايو 2024.

⁴ حكومة المملكة المتحدة. "البيان الوزاري لسيول لتعزيز سلامة الذكاء الاصطناعي والابتكار والشمول: قمة سيول للذكاء الاصطناعي 2024." GOV.UK. 22 مايو 2024.

⁵ مركز الدراسات الاستراتيجية والدولية. "قمة سيول للذكاء الاصطناعي." 15 أكتوبر 2024.

⁶ معهد كوريا الاقتصادي الأمريكي. "الالتزامات الرئيسية التي أُطلقت في قمة سيول للذكاء الاصطناعي." 29 مايو 2024