إعلان بليتشلي وسلامة الذكاء الاصطناعي [AR]
هذه الصفحة ترجمة للمقال الأصلي باللغة الإنجليزية. يرجى الملاحظة أن واجهة التنقل متوفرة باللغة الإنجليزية فقط.
لقد ساهمنا في النداء المفتوح والنقاش العام حول إعلان بليتشلي، الذي يهدف إلى توسيع نطاق آراء أصحاب المصلحة المتعددين بشأن سلامة الذكاء الاصطناعي، وتقديم حالات وسيناريوهات، تشمل البنية التحتية العامة والحيوية، وقطاعات الرعاية الصحية والتعليم والتقنيات المساعدة وتقنيات إمكانية الوصول.
إعلان بليتشلي اتفاقية دولية تاريخية وُقِّعت في 1 نوفمبر 2023، خلال قمة سلامة الذكاء الاصطناعي المنعقدة في بليتشلي بارك بالمملكة المتحدة. صادقت على الإعلان 28 دولة — من بينها الولايات المتحدة والصين والدول الأعضاء في الاتحاد الأوروبي — فضلاً عن الاتحاد الأوروبي ذاته. يُرسي الإعلان التزامًا مشتركًا بالتطوير الآمن والمسؤول للذكاء الاصطناعي، مع تركيز خاص على أنظمة "الذكاء الاصطناعي الحدّي"، وهي نماذج متعددة الأغراض وعالية القدرة ذات تأثيرات مجتمعية محتملة بالغة الأثر.
ذات صلة
إعلان سيول والتزامات سلامة الذكاء الاصطناعي الحدّي
مدونة قواعد الممارسة للذكاء الاصطناعي للأغراض العامة (مجموعتا العمل 2 و3)
مبادئ الإعلان وأهدافه
الذكاء الاصطناعي المتمحور حول الإنسان والمسؤول: يؤكد الإعلان أن الذكاء الاصطناعي ينبغي تصميمه وتطويره ونشره واستخدامه بطريقة آمنة ومتمحورة حول الإنسان وجديرة بالثقة ومسؤولة.
الاعتراف بالمخاطر: يُقرّ الإعلان بإمكانية وقوع أضرار جسيمة، بل وكارثية، جراء القدرات الأكثر تقدمًا لنماذج الذكاء الاصطناعي الحدّي، سواء عبر الإساءة المتعمدة أو العواقب غير المقصودة.
التعاون الدولي: يتفق الموقّعون على أن أفضل سبيل للتعامل مع هذه المخاطر هو التعاون الدولي، بهدف بناء فهم علمي مشترك قائم على الأدلة حول مخاطر الذكاء الاصطناعي، ووضع سياسات قائمة على المخاطر لضمان السلامة.
التوازن بين الابتكار والتنظيم: يُشدّد الإعلان على أهمية اعتماد نهج حوكمة وتنظيم مؤيد للابتكار ومتناسب مع المخاطر، يعظّم فوائد الذكاء الاصطناعي في الوقت الذي يعالج فيه المخاطر المرتبطة به.
الخطاب العام
من منظور الأنظمة العامة والبنية التحتية الحيوية، سلّطنا الضوء على:
السيناريوهات والأهمية: التأكيد على أهمية التركيز على حالات الاستخدام الفعلية وتطبيقات الذكاء الاصطناعي، كما يتجلى في مساهماتنا في أدوات سلامة الذكاء الاصطناعي ومستودعات الحوادث الخاصة بمنظمة التعاون الاقتصادي والتنمية. يجب أن تستند سلامة الذكاء الاصطناعي وحوكمته إلى تجارب حية وعمليات نشر ملموسة.
الوصول المفتوح والشفافية: الدعوة إلى الوصول المفتوح إلى مستودعات التقنيات العامة والمساعدة، بما يشمل ليس التطبيقات وحدها، بل أيضًا النماذج والبنية التحتية الأساسية. تعكس مساهماتنا في مستودع منظمة التعاون الاقتصادي والتنمية للتقنيات المساعدة هذا الالتزام بإمكانية الوصول والشفافية.
تقييمات المخاطر: المطالبة بإجراء تقييمات مخاطر شاملة وجامعة، تأخذ في الحسبان صراحةً القاصرين والمرضى ومقدمي الرعاية وسائر الفئات الضعيفة — وهي فئات كثيرًا ما يُغفلها الأطر التنظيمية الراهنة.
السياق الجغرافي والاجتماعي والاقتصادي: التشديد على ضرورة مراعاة الأنماط الاجتماعية والاقتصادية والسياقات التاريخية في مختلف المناطق عند تطبيق أنظمة الذكاء الاصطناعي وتقييمها، ضمانًا لحوكمة ذات صلة على الصعيد العالمي.
اعتبارات البرمجيات والأجهزة في نماذج الذكاء الاصطناعي الحدّي: التوصية بنهج شامل لتقييم نماذج الذكاء الاصطناعي الحدّي — كنماذج اللغة الكبيرة (LLMs) ونماذج الرؤية واللغة (VLMs) ونماذج الأساس ثلاثية الأبعاد — يتضمن المنظومات البيئية للأجهزة الداعمة، بما فيها أجهزة الاستشعار والواجهات اللمسية المستخدمة في البنية التحتية العامة والمساعدة.
بيئات التدريب وصناديق الرمل التنظيمية: دعم تطوير بيئات تدريب واقعية ومتعددة التخصصات تدمج مكونات البرمجيات والأجهزة معًا. ينبغي أن تشمل هذه البيئات منصات اختبار وصناديق رمل تنظيمية، لتطوير أنظمة الذكاء الاصطناعي واختبارها والتحقق من صحتها بصورة آمنة في ظروف خاضعة للرقابة وإن كانت واقعية.
معايير إمكانية الوصول متعددة الوسائط: اقتراح تطبيق أنظمة إشعار وتواصل موحدة ومتعددة الوسائط (مثل الإشارات السمعية والبصرية واللمسية والنصية المبسطة)، لضمان أن أنظمة الذكاء الاصطناعي في متناول المستخدمين ذوي الإعاقات الحسية أو المعرفية.
الإشراف البشري والمساءلة: التوصية ببروتوكولات إشراف بشري متتالية للتقنيات المساعدة المُشغَّلة بالذكاء الاصطناعي، ولا سيما تلك التي تؤثر على الاستقلالية الشخصية أو القرارات المصيرية. يشمل ذلك آليات تحقق متعددة المستويات عبر جميع أصحاب المصلحة، لضمان الموثوقية والسلامة.
منصات اختبار البيئات الحيوية: تشجيع إنشاء منصات اختبار متخصصة بقطاعات بعينها، تحاكي بيئات الخدمات الأساسية — كالمستشفيات والمدارس ومرافق رعاية كبار السن في بيئتهم المنزلية — لتقييم التأثيرات الواقعية على إمكانية الوصول وجودة الخدمة واستقلالية المستخدم.
وصول المجتمع المدني إلى الأبحاث: المناصرة لأطر وصول بحثية آمنة وشفافة، تتيح لمنظمات المجتمع المدني والباحثين المستقلين دراسة أنظمة الذكاء الاصطناعي في سيناريوهات واقعية، مع توفير حماية خاصة للمستخدمين المعرضين للخطر.
بتوقيعنا على الرسالة المفتوحة لإعلان بليتشلي، نؤكد من جديد التزامنا بتعزيز الحوار العالمي حول سلامة الذكاء الاصطناعي وإمكانية الوصول إليه، عبر جملة من المقاربات التكاملية المتكاملة. ندعو إلى تنسيق أطر الحوكمة الناشئة — كإطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، ومعايير ISO/IEC، وقانون الذكاء الاصطناعي للاتحاد الأوروبي — مع التأكيد على أن الرقابة الفعّالة يجب أن تدمج وجهات نظر ومنهجيات أصحاب المصلحة المتعددين. ومن خلال ربط المعايير التقنية بالتصميم المتمحور حول الإنسان، وتضمين إمكانية الوصول في جميع مراحل دورة حياة الذكاء الاصطناعي، يمكننا ضمان أن النماذج الحدّية لا تخفف المخاطر وحسب، بل توسّع أيضًا القدرات لدى من هم أشد ما يكونون حاجةً إلى التقنيات المساعدة. هذا النهج المتكامل ضرورة لا غنى عنها لضمان أن يُعزز الذكاء الاصطناعي كرامة الإنسان واستقلاليته وإمكانية وصوله في كل مجتمع وسياق.
• • •
المراجع
حكومة المملكة المتحدة. "إعلان بليتشلي الصادر عن الدول المشاركة في قمة سلامة الذكاء الاصطناعي، 1-2 نوفمبر 2023." GOV.UK. 1 نوفمبر 2023.
2 حكومة المملكة المتحدة. "ملخص رئيس قمة سلامة الذكاء الاصطناعي 2023، بليتشلي بارك." GOV.UK. 2 نوفمبر 2023.
3 NIST. "إطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0)." NIST AI.100-1. المعهد الوطني للمعايير والتكنولوجيا. 26 يناير 2023.
4 المنظمة الدولية للتوحيد القياسي. "ISO/IEC 23894:2023 - تكنولوجيا المعلومات — الذكاء الاصطناعي — إرشادات إدارة المخاطر." 2023.
5 OECD.AI. "مرصد حوادث الذكاء الاصطناعي (AIM) - المنصة العالمية لحوادث ومخاطر الذكاء الاصطناعي." 2023.
6 منظمة التعاون الاقتصادي والتنمية. "تعريف حوادث الذكاء الاصطناعي والمصطلحات ذات الصلة." منظمة التعاون الاقتصادي والتنمية. 2024.