منظمة التعاون الاقتصادي والتنمية: إطار إعداد التقارير لعملية هيروشيما للذكاء الاصطناعي في مجموعة السبع (HAIP) [AR]

EN, AR

هذه الصفحة ترجمة للمقال الأصلي باللغة الإنجليزية. يرجى الملاحظة أن واجهة التنقل متوفرة باللغة الإنجليزية فقط.

لقد ساهمنا بمدخلاتنا في مجموعة العمل، وندعو إلى اعتماد إطار إعداد التقارير (HAIP) (1) لعملية هيروشيما للذكاء الاصطناعي في مجموعة السبع، المدعوم من منظمة التعاون الاقتصادي والتنمية. وقد جرى تقديمه خلال قمة باريس للعمل في مجال الذكاء الاصطناعي، حيث عرضنا أجزاءً من الدورة التدريبية المفتوحة عبر الإنترنت (MOOC) المخصصة لـالذكاء الاصطناعي المتمحور حول إمكانية الوصول، كما شهدنا إطلاق تقريرين ومشاورتين عامتين تضمّنتا مساهماتنا.

يُعدّ هذا الإطار نتاجاً مباشراً لـعملية هيروشيما للذكاء الاصطناعي في مجموعة السبع، التي انطلقت في عهد الرئاسة اليابانية لمجموعة السبع عام 2023، وتعززت في عهد الرئاسة الإيطالية لمجموعة السبع عام 2024. ويستند إلى مدونة قواعد السلوك الدولية لعملية هيروشيما للذكاء الاصطناعي الخاصة بالمنظمات المطوِّرة لأنظمة الذكاء الاصطناعي المتقدمة؛ وهي مبادرة رائدة تهدف إلى تعزيز الشفافية والمساءلة في تطوير هذه الأنظمة. وبناءً على طلب مجموعة السبع، وتماشياً مع إعلان ترينتو، أُنيطت بمنظمة التعاون الاقتصادي والتنمية مهمة تحديد آليات لرصد التبني الطوعي لهذه المدونة.

ذات صلة

تقرير منظمة التعاون الاقتصادي والتنمية ومستودعها – الذكاء الاصطناعي والقدرة في سوق العمل

مستودع أدوات منظمة التعاون الاقتصادي والتنمية – الذكاء الاصطناعي المتمحور حول القدرة (1، 2، 3، 4)

منظمة التعاون الاقتصادي والتنمية: قانون الذكاء الاصطناعي والفئات المحددة

عملية هيروشيما للذكاء الاصطناعي في مجموعة السبع

تستجيب عملية هيروشيما للذكاء الاصطناعي للحاجة الماسّة إلى وضع مبادئ وممارسات مشتركة لحوكمة أنظمة الذكاء الاصطناعي المتقدمة، ولا سيما النماذج التأسيسية والذكاء الاصطناعي التوليدي. وتستند العملية إلى مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي، وتسعى إلى تقنين ممارسات قائمة على تقييم المخاطر ومتوافقة مع حقوق الإنسان، في مجالات تطوير الذكاء الاصطناعي واستخدامه ونشره.

تشمل مبادئ هيروشيما 11 مجالاً محورياً، تتراوح بين التخفيف من مخاطر دورة الحياة، والمراقبة بعد النشر، والشفافية، وضوابط الأمان، وصولاً إلى الاستخدام المسؤول للذكاء الاصطناعي في مواجهة التحديات الكونية كالصحة والمناخ والتعليم. وتُتصوَّر هذه المبادئ بوصفها إطاراً حيّاً وقابلاً للتكيّف، تمّ تطويره عبر مشاركة واسعة من أصحاب المصلحة.

إطار HAIP لإعداد التقارير

إطار HAIP لإعداد التقارير أداةٌ طوعية لإعداد التقارير، صُمِّمت لمساعدة المنظمات على توثيق والإفصاح عن تدابيرها لتخفيف المخاطر، وبروتوكولات السلامة، وآليات الحوكمة، وممارسات الشفافية.

تشمل السمات الرئيسية لإطار HAIP لإعداد التقارير:

تغطية شاملة لمجالات حوكمة الذكاء الاصطناعي، تكفل التوافق مع أفضل الممارسات الدولية.

إعداد تقارير شفافة حول قدرات النظام وقيوده وسيناريوهات الاستخدام الخاطئ.

توثيق سياسات الحوكمة وإدارة البيانات ورصد الحوادث بعد طرح المنتج في السوق.

آليات لإثبات مصدر المحتوى والتحقق من صحته، بما في ذلك العلامات المائية حيثما أمكن ذلك.

بيانات تنفيذ المرحلة التجريبية

أسفرت المرحلة التجريبية، التي أُجريت في الفترة من 19 يوليو حتى 6 سبتمبر 2024، عن تغذية راجعة متعددة الأطراف من 20 منظمة في 10 دول هي: كندا، والدنمارك، وألمانيا، وإسرائيل، واليابان، وهولندا، وإسبانيا، وسويسرا، والمملكة المتحدة، والولايات المتحدة الأمريكية. وتنوعت الكيانات المشاركة بين كبرى شركات التكنولوجيا والشركات الناشئة، وشملت مطوري أنظمة الذكاء الاصطناعي، وشركات التكنولوجيا العالمية، ومعاهد البحوث، والمؤسسات الأكاديمية، وشركات الاستشارات المتخصصة في الامتثال للذكاء الاصطناعي.

ملخص نتائج المرحلة التجريبية:

14 منظمة طالبت بدمج الأسئلة المتكررة لتبسيط عمليات إعداد التقارير.

13 منظمة طالبت بخيارات تنسيق محسّنة تشمل النقاط والروابط التشعبية.

12 منظمة طالبت بتعليمات أكثر وضوحاً للاستبيان، مع تحديد حدٍّ أقصى للكلمات وإرفاق أمثلة توضيحية.

9 مشاركين طلبوا توضيح المصطلحات الرئيسية الملتبسة، من بينها: "أنظمة الذكاء الاصطناعي المتقدمة"، و"المخاطر غير المقبولة"، و"الحوادث ذات الأثر الجسيم".

6 منظمات اقترحت تعزيز التوافق مع آليات الإبلاغ الطوعي القائمة (التزامات سلامة الذكاء الاصطناعي الحدّية، والتزامات البيت الأبيض الطوعية للذكاء الاصطناعي).

مبادئ الحوكمة والمتطلبات التقنية

يُوجب الإطار إجراء تقييم شامل للمخاطر على امتداد دورة حياة الذكاء الاصطناعي، مما يستلزم من المنظمات تطبيق تدابير اختبار داخلية وخارجية مستقلة ومتنوعة، تشمل منهجيات الفريق الأحمر (Red Teaming). وتتضمن المواصفات التقنية ضوابط أمنية صارمة تغطي الأمن المادي، والأمن السيبراني، والحماية من التهديدات الداخلية، وذلك فيما يخص أوزان النماذج، والخوارزميات، والخوادم، ومجموعات البيانات.

الالتزامات التقنية الرئيسية:

آليات مصادقة المحتوى وإثبات مصدره عبر تقنيات العلامات المائية والتعريف.

أنظمة تتبع مجموعات البيانات والعمليات وقرارات التطوير.

إعداد تقارير شفافة عن جميع الإصدارات المهمة لأنظمة الذكاء الاصطناعي المتقدمة.

بروتوكولات تبادل معلومات مسؤولة بين القطاع الصناعي والحكومة والمجتمع المدني والأوساط الأكاديمية.

التعاون في تطوير المعايير التقنية الدولية مع منظمات وضع المعايير (SDOs).

إطار تخفيف المخاطر والرصد

يتعين على المنظمات وضع سياسات حوكمة قائمة على المخاطر، تشمل تدابير الخصوصية ومراقبة ما بعد النشر، بهدف رصد الثغرات، وتحليل الحوادث، والكشف عن حالات الاستخدام الخاطئ. ويحظر الإطار أنظمة الذكاء الاصطناعي التي تقوّض القيم الديمقراطية، أو تُلحق الأذى بالمجتمعات، أو تُيسّر الإرهاب، أو تُمكِّن من الأنشطة الإجرامية، أو تشكّل مخاطر جسيمة على السلامة والأمن؛ وذلك توافقاً مع القانون الدولي لحقوق الإنسان والمبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان.

التنسيق الدولي وتطوير المعايير

تُعزّز المبادرة تطوير المعايير التقنية الدولية عبر منظمة التعاون الاقتصادي والتنمية، والشراكة العالمية للذكاء الاصطناعي (GPAI)، والتعاون متعدد الأطراف. وتحتفظ الولايات القضائية بمرونة التنفيذ مع الالتزام بمبادئ الرصد الجوهرية. وقد أيّدت منظمة الأعمال في منظمة التعاون الاقتصادي والتنمية (BIAC) هذا الإطار، انطلاقاً من حرصها على قابلية التشغيل البيني التنظيمي، والتعاون العابر للحدود، والوصول الشفاف إلى تكنولوجيا الذكاء الاصطناعي عبر الولايات القضائية المختلفة.

حماية البيانات والتطوير الأخلاقي للذكاء الاصطناعي

يشترط الإطار إدارة جودة البيانات، بما يشمل الإشراف على بيانات التدريب للحدّ من الانحيازات الضارة، مع التزامات الشفافية المتعلقة بمجموعات البيانات في ضوء الأطر القانونية المعمول بها. وتستهدف أولويات التطوير التحديات الكونية — أزمة المناخ والصحة والتعليم — دعماً لأهداف الأمم المتحدة للتنمية المستدامة، وذلك من خلال إدارة مسؤولة ومتمحورة حول الإنسان للذكاء الاصطناعي، وتعزيز محو الأمية الرقمية.

الجدول الزمني للتنفيذ والوضع الراهن

أُطلق الإطار التشغيلي لإعداد التقارير في 7 فبراير 2025 خلال قمة العمل في مجال الذكاء الاصطناعي بباريس، على أن تُقدَّم الدورة الأولى من التقارير بحلول 15 أبريل 2025، ويُنشر محتواها في يونيو 2025.

وقد تعهّدت شركات رائدة في مجال تطوير الذكاء الاصطناعي — من بينها Amazon وAnthropic وFujitsu وGoogle وKDDI Corporation وMicrosoft وNEC Corporation وNTT وOpenAI وPreferred Networks Inc. وRakuten Group Inc. وSalesforce وSoftbank Corp. — بالمشاركة في الدورة الأولى من هذا الإطار. ومن المقرر أن تتيح منظمة التعاون الاقتصادي والتنمية التقارير للعموم عبر منصة شفافية مخصصة، باستثناء أي معلومات تجارية حساسة.

يمثّل هذا الإطار الشامل إجماعاً دولياً على حوكمة الذكاء الاصطناعي المتقدم، إذ يرسي آليات مساءلة قابلة للقياس، مع الحفاظ على مناخ مشجّع للابتكار في تطوير التكنولوجيا الناشئة ونشرها عبر سياقات تنظيمية وأطر قضائية متنوعة. وتُجسّد هذه المبادرة نموذجاً حياً على كيفية إسهام التعاون الدولي في تطوير حوكمة الذكاء الاصطناعي، وترسيخ توقعات موحّدة لممارسات الشفافية وإدارة المخاطر على الصعيد العالمي.

• • •

المراجع

¹ منظمة التعاون الاقتصادي والتنمية. "عملية هيروشيما للذكاء الاصطناعي في مجموعة السبع: مدونة قواعد السلوك الدولية للمنظمات المطوِّرة لأنظمة الذكاء الاصطناعي المتقدمة." منظمة التعاون الاقتصادي والتنمية. 2023.

² منظمة التعاون الاقتصادي والتنمية. "HAIP: إطار إعداد التقارير لعملية هيروشيما للذكاء الاصطناعي." منظمة التعاون الاقتصادي والتنمية. 2024.

³ مجموعة السبع – إيطاليا. "الإعلان الوزاري بشأن عملية هيروشيما للذكاء الاصطناعي ونتائج حوار ترينتو." الرئاسة الإيطالية لمجموعة السبع. 2024.

⁴ مرصد سياسات الذكاء الاصطناعي التابع لمنظمة التعاون الاقتصادي والتنمية. "إطار تصنيف أنظمة الذكاء الاصطناعي." منظمة التعاون الاقتصادي والتنمية. 2022.

⁵ مرصد سياسات الذكاء الاصطناعي التابع لمنظمة التعاون الاقتصادي والتنمية. "مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي: توصية المجلس بشأن الذكاء الاصطناعي." منظمة التعاون الاقتصادي والتنمية. 2019.

⁶ منظمة التعاون الاقتصادي والتنمية. "ملخص المرحلة التجريبية لإطار HAIP لإعداد التقارير." منظمة التعاون الاقتصادي والتنمية. 2025.