NIST: ملف تعريف الذكاء الاصطناعي التوليدي (AI 600-1) وإطار إدارة مخاطر الذكاء الاصطناعي (AI RMF) [AR]

EN, AR

هذه الصفحة ترجمة للمقال الأصلي باللغة الإنجليزية. يرجى الملاحظة أن واجهة التنقل متوفرة باللغة الإنجليزية فقط.

ساهمنا بمدخلاتنا في أطر عمل المعهد الوطني للمعايير والتكنولوجيا (NIST): "إطار إدارة مخاطر الذكاء الاصطناعي: ملف تعريف الذكاء الاصطناعي التوليدي" (NIST AI 600-1).

يُعدّ NIST AI 600-1 مرجعاً مصاحباً لـإطار إدارة مخاطر الذكاء الاصطناعي (AI RMF) الصادر عن المعهد الوطني للمعايير والتكنولوجيا، ويتناول بصورة خاصة الذكاء الاصطناعي التوليدي (GAI). ويهدف إلى مساعدة المنظمات على تحديد المخاطر الفريدة المرتبطة بالذكاء الاصطناعي التوليدي وإدارتها والتخفيف منها، كثغرات الأمن السيبراني والمعلومات المضللة والمخاوف الأخلاقية. ويحدد المستند 12 مخاطرة رئيسية ويقترح أكثر من 200 إجراء يمكن للمطورين اتخاذها لمعالجتها، مع ربطها بإطار AI RMF.

ذات صلة

مجلس الوصول الأمريكي: أمر تنفيذي بشأن الذكاء الاصطناعي وإمكانية الوصول

PCAST: مجموعة العمل المعنية بالذكاء الاصطناعي التوليدي (محدث)

منظمة التعاون الاقتصادي والتنمية: إطار إعداد التقارير لعملية هيروشيما للذكاء الاصطناعي (HAIP)

منظمة الصحة العالمية: إرشادات بشأن النماذج الكبيرة متعددة الوسائط

WEF: إمكانات الذكاء الاصطناعي التوليدي في مجال إمكانية الوصول

إطار إدارة مخاطر الذكاء الاصطناعي (NIST AI RMF 1.0)

يوفر إطار إدارة مخاطر الذكاء الاصطناعي (NIST AI RMF 1.0)، الصادر في 26 يناير 2023، إرشادات طوعية لدمج اعتبارات الجدارة بالثقة في تصميم أنظمة الذكاء الاصطناعي وتطويرها واستخدامها وتقييمها. وقد جرى تطويره عبر عمليات توافقية شارك فيها أكثر من 240 منظمة من القطاع الخاص والأوساط الأكاديمية والمجتمع المدني والحكومة على مدار 18 شهراً، ويُرسي الإطار مناهج منهجية لإدارة المخاطر المرتبطة بالذكاء الاصطناعي على مستوى الأفراد والمنظمات والمجتمع.

يعمل الإطار عبر أربع وظائف أساسية تتناول مراحل متمايزة من إدارة دورة حياة الذكاء الاصطناعي. تنطبق وظيفة GOVERN على جميع عمليات إدارة مخاطر الذكاء الاصطناعي على مستوى المنظمة، إذ تُحدد السياسات والإجراءات والهياكل التنظيمية للحوكمة. أما وظائف MAP وMEASURE وMANAGE فتستهدف السياقات المحددة لكل نظام ومراحل دورة حياته، وتوفر إرشادات تشغيلية لاستراتيجيات تحديد المخاطر وتقييمها والتخفيف منها.

هيكل الإطار الأساسي:

GOVERN: السياسات والإجراءات التنظيمية لإدارة مخاطر الذكاء الاصطناعي.

MAP: تحديد المخاطر وتحديد السياق لأنظمة الذكاء الاصطناعي.

MEASURE: منهجيات تقييم الأداء وقياس الجدارة بالثقة.

MANAGE: استراتيجيات تحديد أولويات المخاطر وتنفيذ تدابير التخفيف.


يتضمن الإطار آليات مرنة تُتيح التكيّف مع حجم المنظمة وحالات الاستخدام وملامح المخاطر، معتمداً على نهج القوة الناعمة بدلاً من التفويضات التنظيمية. يعتزم المعهد الوطني للمعايير والتكنولوجيا إجراء مراجعة رسمية بحلول 2028، مع احتمال إصدار الإصدار 2.0، وتحديثات نصف سنوية تدمج ملاحظات المجتمع عبر عمليات تطوير تدريجية.

ملف تعريف الذكاء الاصطناعي التوليدي (NIST AI 600-1)

الصادر في 26 يوليو 2024، يُشكّل NIST AI 600-1 مرجعاً مصاحباً متعدد القطاعات لإطار AI RMF، يتناول تحديداً أنظمة الذكاء الاصطناعي التوليدي استجابةً للأمر التنفيذي 14110 الصادر عن الرئيس بايدن. تتمحور الإرشادات حول قائمة من 12 مخاطرة وأكثر من 200 إجراء مقترح يمكن للمطورين وسائر الجهات الفاعلة في مجال الذكاء الاصطناعي اتخاذها لإدارتها، مع توفير إرشادات متخصصة للمنظمات التي تدير تقنيات الذكاء الاصطناعي التوليدي عبر مختلف قطاعات الصناعة.

تشمل المخاطر الـ 12: انخفاض حاجز الدخول أمام الهجمات السيبرانية، وإنتاج المعلومات الخاطئة والمضللة وخطاب الكراهية والمحتوى الضار الآخر، وإصدار أنظمة الذكاء الاصطناعي التوليدي مخرجات غير دقيقة أو مضللة — وهي ظاهرة يُشار إليها بـ"الاختلاق" (Confabulation). يتناول الملف التعريفي المخاوف التقنية والتشغيلية والمجتمعية، من ثغرات الأمن السيبراني إلى تحديات أصالة المحتوى، مع ربط الإجراءات مباشرةً بهيكل إطار AI RMF.

فئات المخاطر الرئيسية للذكاء الاصطناعي التوليدي:

حواجز الهجمات السيبرانية ونقاط الضعف المرتبطة بها.

الاختلاق (الهلوسة) المُنتج لمحتوى زائف أو مضلل.

توليد المحتوى الخطير أو العنيف أو المحرّض على الكراهية والتعرض له.

تأثيرات خصوصية البيانات عبر الإفصاح غير المصرح به أو إعادة تحديد الهوية.

الانحياز الضار والتجانس الناجمان عن بيانات تدريب غير تمثيلية.

إشكاليات التكوين البشري-الآلي المؤثرة على موثوقية النظام.

انتهاكات الملكية الفكرية وإعادة إنتاج المحتوى غير المصرح به.

الإخلال بسلامة المعلومات وتأثيره على عمليات اتخاذ القرار.

مخاطر توليد محتوى فاحش أو مهين أو مسيء.

تأثيرات الاستدامة البيئية الناجمة عن استهلاك الموارد الحاسوبية.

ثغرات التكامل في سلسلة القيمة عبر مراحل التطوير والنشر.

ثغرات أمن المعلومات في حماية النماذج ومعالجة البيانات.


يُركّز الملف التعريفي على منهجيات تقييم المخاطر ومتطلبات الاختبار المستمر وإدماج التغذية الراجعة متعددة الأطراف طوال عمليتَي التطوير والنشر. وبعد توصيف كل مخاطرة، يعرض المستند مصفوفة من الإجراءات المقترحة التي يمكن للجهات الفاعلة في مجال الذكاء الاصطناعي اتخاذها للتخفيف منها، مرتبطةً بإطار AI RMF.

أطر الأمن ذات الصلة من NIST

تكامل ضوابط NIST SP 800-53

يوفر NIST SP 800-53 المراجعة 5 ضوابط أمنية وخصوصية شاملة لأنظمة المعلومات الفيدرالية، منظّمةً في 20 مجموعة ضوابط عبر مستويات التأثير المنخفضة والمتوسطة والعالية. يتناول الإطار متطلبات التحكم في الوصول، والتدقيق والمساءلة، وإدارة التكوين، والاستجابة للحوادث، وحماية اتصالات النظام، المنطبقة على تطبيقات أمن أنظمة الذكاء الاصطناعي.

تستلزم تطبيقات أنظمة الذكاء الاصطناعي التكامل مع ضوابط الأمن السيبراني الراسخة التي تعالج الخصائص الفريدة لأنظمة التعلم الآلي. تشمل مجموعات الضوابط: أمن الموظفين، والحماية المادية والبيئية، واستراتيجيات التخطيط، وإدارة البرامج، وتقييم المخاطر، وعمليات تفويض تقييم الأمن. يتعين على المنظمات التي تنشر أنظمة الذكاء الاصطناعي مواءمة إدارة المخاطر الخوارزمية مع هياكل ضوابط أمن المعلومات التقليدية.

امتدادات إطار تطوير البرمجيات الآمنة

يُكمّل المنشور الخاص NIST SP 800-218A إطار تطوير البرمجيات الآمنة (SSDF) خصيصاً لتطوير نماذج الذكاء الاصطناعي، معالِجاً تحديات فريدة من بينها تأثيرات بيانات التدريب الضارة والحدود المبهمة بين كود النظام وبياناته. يدعم هذا المرجع المصاحب متطلبات الأمر التنفيذي 14110 لتطوير الذكاء الاصطناعي التوليدي الآمن وممارسات تطوير النماذج التأسيسية ذات الاستخدام المزدوج.

يوصي الإطار بتدابير أمنية على مستوى المنظمة والنموذج وبرمجة التطبيقات، مع بناء أنظمة متينة لتقييم الثغرات والاستجابة لها، تُعنى بسلامة بيانات التدريب وأمن النموذج على امتداد دورات حياة التطوير.

مقاييس التنفيذ وتكامل المعايير

يقدّم ملف تعريف الذكاء الاصطناعي التوليدي 211 إجراءً محدداً عبر 12 فئة من المخاطر، مما يُتيح تنفيذاً مخصصاً بحسب متطلبات المنظمة وقدرتها على تحمّل المخاطر. يوفر دليل AI RMF إرشادات قابلة للتطبيق يُحدَّث مرتين سنوياً تقريباً عبر ملاحظات المجتمع، مما يدعم اعتماد الإطار في سياقات تشغيلية متنوعة مع مراجعة التعليقات ودمجها على أساس نصف سنوي.

ومن أبرز المستجدات: عمل اتحاد معهد سلامة الذكاء الاصطناعي الأمريكي (U.S. AI Safety Institute Consortium) على مناهج الإبلاغ الطوعي، مع نتائج رئيسية حول كيفية مشاركة المنظمات لبيانات إدارة المخاطر عبر نموذج الإبلاغ الطوعي (VRT) لإطار NIST لإدارة مخاطر الذكاء الاصطناعي التوليدي. يضم الاتحاد أكثر من 290 شركة ومنظمة عضو تعمل في خمسة مجالات رئيسية: إدارة مخاطر الذكاء الاصطناعي التوليدي، والمحتوى الاصطناعي، والتقييمات، والفريق الأحمر، وسلامة النماذج وأمنها.

ينسّق المعهد الوطني للمعايير والتكنولوجيا التوافق مع المعايير الدولية، من بينها ISO/IEC 5338 وISO/IEC 38507 وISO/IEC 22989 وISO/IEC 24028 وISO/IEC 42001 وISO/IEC 42005، وذلك عبر منظومة تنسيق معايير الذكاء الاصطناعي الفيدرالية. وتستهدف أولويات التطوير المستقبلية: التكوين البشري-الآلي، ومنهجيات التفسيرية، ومناهج قياس فاعلية الإطار، بما يشمل تطوير دراسات الحالة وموارد التنفيذ القطاعية.

يُرسي نظام إطار الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا بنيةً تحتيةً منهجية لإدارة المخاطر عبر السياقات التنظيمية المختلفة، مُقدِّماً مناهج قابلة للتوسع لحوكمة التكنولوجيا مع الحفاظ على مرونة التنفيذ الداعمة للابتكار.

• • •

المراجع

¹ المعهد الوطني للمعايير والتكنولوجيا. "إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0)." NIST AI 100-1. 26 يناير 2023.

² المعهد الوطني للمعايير والتكنولوجيا. "إطار إدارة مخاطر الذكاء الاصطناعي: ملف تعريف الذكاء الاصطناعي التوليدي (AI 600-1)." NIST AI 600-1. 26 يوليو 2024.

³ المعهد الوطني للمعايير والتكنولوجيا. "ضوابط الأمن والخصوصية لأنظمة المعلومات والمنظمات." منشور NIST الخاص 800-53، المراجعة 5. سبتمبر 2020.

⁴ المعهد الوطني للمعايير والتكنولوجيا. "إطار تطوير البرمجيات الآمنة (SSDF) الإصدار 1.1: توصيات للتخفيف من مخاطر ثغرات البرمجيات." منشور NIST الخاص 800-218A. فبراير 2024.

⁵ المعهد الوطني للمعايير والتكنولوجيا. "دليل AI RMF." 2024.

⁶ اتحاد معهد سلامة الذكاء الاصطناعي الأمريكي. "نموذج الإبلاغ الطوعي لإطار إدارة مخاطر الذكاء الاصطناعي التوليدي الصادر عن المعهد الوطني للمعايير والتكنولوجيا." 2025.

⁷ المنظمة الدولية للتوحيد القياسي. "ISO/IEC 42001: تكنولوجيا المعلومات — الذكاء الاصطناعي — نظام الإدارة." 2023.

⁸ المنظمة الدولية للتوحيد القياسي. "ISO/IEC 22989: تكنولوجيا المعلومات — الذكاء الاصطناعي — المفاهيم والمصطلحات." 2022.

⁹ المنظمة الدولية للتوحيد القياسي. "ISO/IEC 24028: تكنولوجيا المعلومات — الذكاء الاصطناعي — نظرة عامة على الجدارة بالثقة في الذكاء الاصطناعي." 2021.