הצהרת סיאול והתחייבויות לבטיחות בינה מלאכותית מתקדמת [HE]
עמוד זה הינו תרגום של המאמר המקורי באנגלית. נא לשים לב שהניווט זמין באנגלית בלבד.
בהמשך להצהרת סיאול לבינה מלאכותית בטוחה, חדשנית וכוללת, הצטרפנו ל-Korea AI Safety כדי להרחיב את הידע על האופן שבו אלגוריתמים יכולים לתדלק טקסונומיות ציבוריות, מסייעות ונגישות בצורה בטוחה, כולל היבטים של המודלים והתשתית הקריטית הקשורה.
קשור
הצהרת בלצ'לי ובטיחות בינה מלאכותית
אמנת הבינה המלאכותית והצעדים הבאים ליישום חוק הבינה המלאכותית: נגישות ומערכות ציבוריות
קוד התנהגות לבינה מלאכותית למטרות כלליות (קבוצות עבודה 2, 3)
הצהרת סיאול בנושא בטיחות בינה מלאכותית, שאומצה ב-21 במאי 2024 במהלך פסגת ה-AI בסיאול, מבוססת על הצהרת בלצ'לי מהשנה הקודמת. ההצהרה, שנחתמה על ידי מנהיגים מ-10 מדינות והאיחוד האירופי, מדגישה את הצורך בשיתוף פעולה בינלאומי להבטחת פיתוח בטוח, חדשני וכולל של בינה מלאכותית. ההצהרה מדגישה את חשיבות הבינה המלאכותית הממוקדת באדם, התואמת את שלטון החוק, וקוראת לגישור על הפערים הדיגיטליים ולחיזוק שיתוף הפעולה העולמי לצורך ההתמודדות עם האתגרים וההזדמנויות של הבינה המלאכותית.
התוצאות המרכזיות של פסגת סיאול כוללות הקמת רשת בינלאומית של מכוני בטיחות בינה מלאכותית. רשת זו מאגדת ארגונים מבריטניה, ארה"ב, יפן, צרפת, גרמניה, איטליה, סינגפור, דרום קוריאה, אוסטרליה, קנדה והאיחוד האירופי. מטרתה היא לקדם שיתוף פעולה במחקר בטיחות, לחלוק שיטות עבודה מומלצות ולפתח משאבים טכניים לקידום בטיחות הבינה המלאכותית.
תוצאה נוספת היא הצגת התחייבויות הבטיחות של Frontier AI. 16 חברות בינה מלאכותית גלובליות, בהן Amazon, Google, Meta, Microsoft, Anthropic ו-OpenAI, התחייבו להגדיר ולחשוף את "הסיכונים הבלתי נסבלים" הנשקפים ממערכות בינה מלאכותית מתקדמות. התחייבויות אלה מתמקדות בתחומים מרכזיים כגון אבטחת סייבר, אוטונומיה של מודלים ושיבושים חברתיים. החברות התחייבו לפרסם מסגרות בטיחות המתארות את האסטרטגיות שלהן לניהול סיכונים, הכוללות הגברת שקיפות, ביצוע בדיקות פנימיות וחיצוניות של צוותי תקיפה (red-teaming) ועידוד דיווח על פגיעויות מצד גורמים חיצוניים. מאמצים אלה מהווים צעד משמעותי לקראת ניהול סיכונים פרואקטיבי וגיבוש סטנדרטים גלובליים לפיתוח בינה מלאכותית בטוחה.
התחייבויות הבטיחות של Frontier AI
ההצהרה משולבת עם התחייבויות הבטיחות של Frontier AI — סדרה של התחייבויות וולונטריות מצד ארגוני בינה מלאכותית מובילים לניהול הסיכונים החמורים הכרוכים במודלים חזקים של בינה מלאכותית לשימוש כללי.
הערכת סיכונים קפדנית: החברות מתחייבות להעריך נזקים פוטנציאליים לפני ובמהלך האימון ולפני הפריסה של מודלי הבינה המלאכותית שלהן. הדבר כולל הן בדיקות פנימיות והן הערכות חיצוניות.
הגדרה וניהול של סיכונים "בלתי נסבלים": התחייבות מכרעת היא לקבוע ספים ברורים לסיכונים חמורים ובלתי מקובלים. אם ספים אלה מתקיימים, ואמצעי ההפחתה אינם מספיקים, הארגונים מתחייבים שלא לפתח או לפרוס את המודל כלל.
ממשל איתן ושקיפות: הדבר כולל הקמת מסגרות בטיחות פנימיות חזקות, דיווח פומבי על התקדמות, שיתוף פעולה עם מומחים חיצוניים לצורך "צוות תקיפה" (בדיקת לחץ על הבינה המלאכותית), חיזוק אבטחת הסייבר ושיתוף מידע סלקטיבי על יכולות המודל והסיכונים הכרוכים בו.
בטיחות בינה מלאכותית ומערכות ציבוריות
עמדתנו והשתתפותנו בשיח הציבורי כללו בחינה של הדרכים שבהן ניתן לשכלל את התחייבויות הבטיחות של Frontier AI כדי להתאימן לפרוטוקולים ולטקסונומיה רחבים של מערכות ציבוריות ומסייעות, תוך התמקדות במודלים בסיסיים ויישומיים של בינה מלאכותית, כגון מודלים לשוניים גדולים (LLMs), מודלים לשוניים קטנים (SLMs), מודלים חזותיים-לשוניים (VLMs) ומודלים בסיסיים תלת-ממדיים מתפתחים, לצד יכולות מולטי-מודליות. מודלים אלה חיוניים לטכנולוגיות מסייעות, לבריאות ולהקשרים ציבוריים. מכוני בטיחות בינה מלאכותית חייבים לבנות את מאמציהם ויכולותיהם כך שיכסו מגוון רחב של מערכות וממשקים, החל מרובוטיקה מסייעת ועד כלים לנגישות. יש להקדיש תשומת לב מיוחדת לסביבות רגולטוריות ולסביבות בדיקה המדמות תנאים בעולם האמיתי, כדי להבטיח שמודלי בינה מלאכותית יהיו בטוחים ונגישים. לדוגמה, מערכות בינה מלאכותית מסייעות, כגון מכשירים המופעלים בקול או עזרי ניידות, חייבות לעבור בדיקות תאימות בסביבות אלה כדי להבטיח שפועלות בבטחה, ובמיוחד כאשר הן מתקשרות עם משתמשים בעלי מוגבלויות קוגניטיביות, חושיות או פיזיות שונות.
מודלי בינה מלאכותית מתקדמת צריכים להיבדק על בסיס גורמים טכניים קריטיים כגון דרישות נתונים, כוח חישובי, צריכת חשמל ועמידות סייבר בכלל המגזרים. הערכה זו חייבת לקחת בחשבון גם את ההשפעה המעשית על תחומים ציבוריים בסיכון גבוה, כגון מקומות עבודה, בריאות וחינוך. יש להגדיר סיכונים וספים על בסיס יישומים בעולם האמיתי, ולא רק על בסיס יכולות תיאורטיות. לדוגמה, פריסת מודל בסיס תלת-ממדי בטכנולוגיות מסייעות או בתחום הבריאות מחייבת הערכה קפדנית של החוסן ומניעת שימוש לרעה. לבסוף, בהתאם לעמדות הציבור, מפתחי בינה מלאכותית צריכים לחשוף הערכות בטיחות הן לפני הפחתת הסיכונים והן לאחריה, כדי לספק תמונה ברורה יותר של אפקטיביות אסטרטגיות ניהול הסיכונים שלהם.
• • •
הפניות
¹ ממשלת בריטניה. "הצהרת סיאול לבינה מלאכותית בטוחה, חדשנית וכוללת מאת המשתתפים בישיבת המנהיגים: פסגת ה-AI בסיאול, 21 במאי 2024." GOV.UK. 21 במאי 2024.
² ממשלת בריטניה. "הצהרת כוונות סיאול לשיתוף פעולה בינלאומי במדע בטיחות בינה מלאכותית, פסגת ה-AI בסיאול 2024 (נספח)." GOV.UK. 21 במאי 2024.
³ ממשלת בריטניה. "התחייבויות לבטיחות בינה מלאכותית מתקדמת, פסגת ה-AI בסיאול 2024." GOV.UK. 21 במאי 2024.
⁴ ממשלת בריטניה. "הצהרת השרים בסיאול לקידום בטיחות, חדשנות והכללה של בינה מלאכותית: פסגת ה-AI בסיאול 2024." GOV.UK. 22 במאי 2024.
⁵ המרכז ללימודים אסטרטגיים ובינלאומיים. "פסגת ה-AI בסיאול." 15 באוקטובר 2024.
⁶ המכון הכלכלי הקוריאני של אמריקה. "התחייבויות מרכזיות שהושקו בפסגת ה-AI בסיאול." 29 במאי 2024.