OECD: מסגרת הדיווח של תהליך ה-AI של ה-G7 בהירושימה (HAIP) [HE]
עמוד זה הינו תרגום של המאמר המקורי באנגלית. נא לשים לב שהניווט זמין באנגלית בלבד.
תרמנו את עמדתנו לקבוצת העבודה וקראנו לאימוץ מסגרת הדיווח של תהליך ה-AI של ה-G7 בהירושימה (HAIP) (1) הנתמכת על ידי ה-OECD. המסגרת הוצגה במהלך פסגת הפעולה לבינה מלאכותית בפריז, שבה הדגמנו חלקים מה-MOOC המוקדש לבינה מלאכותית ממוקדת נגישות, וכן השתתפנו כעדים לשני דוחות ולהתייעצויות ציבוריות שאליהן תרמנו.
מסגרת דיווח זו היא תוצאה ישירה של תהליך ה-AI של ה-G7 בהירושימה, שיזמה הנשיאות היפנית של ה-G7 בשנת 2023, והמשיכה לקדם אותה הנשיאות האיטלקית בשנת 2024. היא מבוססת על קוד ההתנהגות הבינלאומי של תהליך הירושימה לארגונים המפתחים מערכות בינה מלאכותית מתקדמות — יוזמת ציון דרך לקידום שקיפות ואחריות בפיתוח מערכות בינה מלאכותית מתקדמות. לבקשת ה-G7, ובהתאם להצהרת טרנטו, הוטל על ה-OECD לזהות מנגנונים לניטור האימוץ הוולונטרי של הקוד.
קשור
דו"ח ומאגר ה-OECD — בינה מלאכותית ויכולת בשוק העבודה
מאגר הכלים של ה-OECD — בינה מלאכותית ממוקדת יכולת (1, 2, 3, 4)
OECD: חוק הבינה המלאכותית וקבוצות ייעודיות
תהליך ה-AI של ה-G7 בהירושימה
תהליך ה-AI בהירושימה נועד לענות על הצורך בגיבוש עקרונות ונהלים משותפים לממשל מערכות בינה מלאכותית מתקדמות — ובמיוחד מודלי בסיס ובינה מלאכותית גנרטיבית. התהליך מבוסס על עקרונות ה-AI של ה-OECD, ושואף לעגן נוהגים מבוססי סיכון התואמים את זכויות האדם בפיתוח, בשימוש ובפריסה של בינה מלאכותית.
עקרונות הירושימה כוללים 11 תחומי מפתח, החל מהפחתת סיכונים לאורך מחזור החיים, דרך ניטור לאחר פריסה, שקיפות ובקרות אבטחה, ועד לשימוש אחראי בבינה מלאכותית לצורך התמודדות עם אתגרים עולמיים כגון בריאות, אקלים וחינוך. עקרונות אלה מוּשגים כמסגרת חיה וניתנת להתאמה, שפותחה בהשתתפות רחבה של בעלי עניין.
מסגרת הדיווח HAIP
מסגרת הדיווח HAIP היא כלי דיווח וולונטרי, שנועד לסייע לארגונים לתעד ולגלות את אמצעי הפחתת הסיכונים שלהם, פרוטוקולי הבטיחות, מנגנוני הממשל ונוהגי השקיפות.
תכונות מרכזיות של מסגרת הדיווח HAIP:
כיסוי מקיף של תחומי ממשל הבינה המלאכותית, המבטיח התאמה לפרקטיקות הטובות הבינלאומיות.
דיווח שקוף על יכולות המערכת, מגבלותיה ותרחישי שימוש לרעה.
תיעוד מדיניות הממשל, ניהול הנתונים וניטור אירועים לאחר השיווק.
מנגנונים לאימות מקור התוכן, לרבות סימון מים במידת האפשר.
נתוני יישום שלב הפיילוט
שלב הפיילוט, שהתקיים בין 19 ביולי ל-6 בספטמבר 2024, הניב משוב מהותי ממגוון בעלי עניין — 20 ארגונים מ-10 מדינות: קנדה, דנמרק, גרמניה, ישראל, יפן, הולנד, ספרד, שווייץ, בריטניה וארצות הברית. הגופים המשתתפים כללו חברות טכנולוגיה גדולות, סטארט-אפים, מפתחי מערכות בינה מלאכותית, תאגידי טכנולוגיה גלובליים, מכוני מחקר, מוסדות אקדמיים וחברות ייעוץ לתאימות בינה מלאכותית.
סיכום ממצאי הפיילוט:
14 ארגונים ביקשו לאחד שאלות חוזרות על מנת לייעל את תהליכי הדיווח.
13 ארגונים דרשו אפשרויות עיצוב משופרות, כולל תבליטים והיפר-קישורים.
12 ארגונים ביקשו הוראות סקר ברורות יותר, כולל הגבלות מילים ודוגמאות.
9 משיבים ביקשו הסבר למונחי מפתח עמומים, בהם "מערכות בינה מלאכותית מתקדמות", "סיכונים בלתי סבירים" ו"אירועים משמעותיים".
6 ארגונים הציעו לשפר את ההתאמה למנגנוני דיווח וולונטריים קיימים (Frontier AI Safety Commitments, White House AI Voluntary Commitments).
עקרונות ממשל ודרישות טכניות
המסגרת מחייבת הערכת סיכונים מקיפה לאורך מחזור החיים של הבינה המלאכותית, ומחייבת ארגונים ליישם שיטות בדיקה פנימיות וחיצוניות מגוונות, לרבות מתודולוגיות של צוותי תקיפה (red-teaming). המפרט הטכני כולל בקרות אבטחה מקיפות — אבטחה פיזית, אבטחת סייבר והגנה מפני איומים פנימיים — עבור משקלי מודלים, אלגוריתמים, שרתים ומאגרי נתונים.
התחייבויות טכניות מרכזיות:
מנגנוני אימות מקור תוכן באמצעות טכניקות סימון מים וזיהוי.
מערכות מעקב עבור מאגרי נתונים, תהליכים והחלטות פיתוח.
דיווח שקוף על כל שחרורים משמעותיים של מערכות בינה מלאכותית מתקדמות.
פרוטוקולים אחראיים לשיתוף מידע בין התעשייה, הממשלה, החברה האזרחית והאקדמיה.
שיתוף פעולה בפיתוח תקנים טכניים בינלאומיים עם ארגוני פיתוח תקנים (SDOs).
מסגרת להפחתת סיכונים וניטור
על ארגונים לקבוע מדיניות ממשל מבוססת סיכונים, הכוללת אמצעי הגנה על פרטיות וניטור לאחר פריסה לצורך זיהוי פגיעויות, ניתוח אירועים וגילוי שימוש לרעה. המסגרת אוסרת על מערכות בינה מלאכותית הפוגעות בערכים דמוקרטיים, מזיקות לקהילות, מסייעות לטרור, מאפשרות פעילות פלילית או מהוות סיכון מהותי לבטיחות ולביטחון — בהתאם למשפט הבינלאומי לזכויות אדם ולעקרונות המנחים של האו"ם בנושא עסקים וזכויות אדם.
תיאום בינלאומי ופיתוח תקנים
היוזמה מקדמת תקנים טכניים בינלאומיים באמצעות ה-OECD, השותפות הגלובלית לבינה מלאכותית (GPAI) ושיתוף פעולה רב-צדדי. תחומי שיפוט שונים שומרים על גמישות ביישום תוך עמידה בעקרונות הניטור המרכזיים. ארגון העסקים ב-OECD (BIAC) תומך במסגרת לצורך הרמוניזציה רגולטורית, שיתוף פעולה חוצה גבולות וגישה שקופה לטכנולוגיית בינה מלאכותית בכלל תחומי השיפוט.
הגנה על נתונים ופיתוח אתי של בינה מלאכותית
המסגרת דורשת ניהול איכות נתונים, לרבות פיקוח על נתוני אימון להפחתת הטיות מזיקות, יחד עם חובות שקיפות לגבי מאגרי נתונים במסגרות המשפטיות החלות. יעדי הפיתוח מתמקדים באתגרים עולמיים — משבר האקלים, בריאות וחינוך — ותומכים ביעדי הפיתוח בר-קיימא של האו"ם באמצעות ניהול אחראי, ממוקד-אדם של בינה מלאכותית, וקידום האוריינות הדיגיטלית.
לוח זמנים ליישום ומצב נוכחי
מסגרת הדיווח התפעולית הושקה ב-7 בפברואר 2025 במהלך פסגת הפעולה לבינה מלאכותית בפריז. מועד ההגשה למחזור הדיווח הראשון נקבע ל-15 באפריל 2025, ופרסום התוצאות מתוכנן ליוני 2025.
מפתחי בינה מלאכותית מובילים, בהם Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce ו-SoftBank Corp., התחייבו להשתתף במחזור הראשון של המסגרת. ההגשות צפויות להיות זמינות לציבור באמצעות פלטפורמת שקיפות ייעודית של ה-OECD, למעט מידע רגיש מבחינה מסחרית.
המסגרת המקיפה מייצגת קונצנזוס בינלאומי בממשל בינה מלאכותית מתקדמת, ומקימה מנגנוני אחריות מדידים תוך שמירה על גישות ידידותיות לחדשנות בפיתוח ופריסה של טכנולוגיות מתפתחות, במגוון הקשרים ארגוניים ומסגרות שיפוטיות. יוזמה זו ממחישה כיצד שיתוף פעולה בינלאומי יכול להניע התקדמות בממשל בינה מלאכותית, ולגבש ציפיות מוסדרות בנוגע לשקיפות ולנוהגי ניהול סיכונים ברחבי העולם.
• • •
הפניות
¹ ארגון לשיתוף פעולה ופיתוח כלכלי. "תהליך ה-G7 בהירושימה בנושא בינה מלאכותית: קוד התנהגות בינלאומי לארגונים המפתחים מערכות בינה מלאכותית מתקדמות." OECD. 2023.
² ארגון לשיתוף פעולה ופיתוח כלכלי. "HAIP: מסגרת הדיווח של תהליך ה-G7 בהירושימה בנושא בינה מלאכותית." OECD. 2024.
³ G7 איטליה. "הצהרת שרים על תהליך ה-G7 בהירושימה בנושא בינה מלאכותית ותוצאות דיאלוג טרנטו." נשיאות ה-G7 האיטלקית. 2024.
⁴ OECD.AI Policy Observatory. "מסגרת ה-OECD לסיווג מערכות בינה מלאכותית." OECD. 2022.
⁵ OECD.AI Policy Observatory. "עקרונות ה-OECD לבינה מלאכותית: המלצת המועצה בנושא בינה מלאכותית." OECD. 2019.
⁶ ארגון לשיתוף פעולה ופיתוח כלכלי. "סיכום שלב הפיילוט של מסגרת הדיווח HAIP." OECD. 2025.