הצהרת בלצ'לי ובטיחות בינה מלאכותית (HE)
עמוד זה הינו תרגום של המאמר המקורי באנגלית. נא לשים לב שהניווט זמין באנגלית בלבד.
תרמנו להקריאה הפתוחה ולשיח הציבורי על הצהרת בלצ'לי, שמטרתה להרחיב את נקודת המבט של בעלי עניין מרובים בנושא בטיחות בינה מלאכותית, להציג מקרים ותרחישים, כולל תשתיות ציבוריות וקריטיות, תחומי בריאות, חינוך, טכנולוגיות סיוע ונגישות.
הצהרת בלצ'לי היא הסכם בינלאומי היסטורי שנחתם ב-1 בנובמבר 2023, במהלך פסגת בטיחות הבינה המלאכותית שנערכה בפארק בלצ'לי, בריטניה. ההצהרה, שאושרה על ידי 28 מדינות — כולל ארצות הברית, סין וחברות האיחוד האירופי — וכן על ידי האיחוד האירופי עצמו, קובעת מחויבות משותפת לפיתוח בטוח ואחראי של בינה מלאכותית, תוך התמקדות מיוחדת במערכות "בינה מלאכותית מתקדמת" (frontier AI) — מודלים רב-תכליתיים בעלי יכולות גבוהות עם השפעה חברתית פוטנציאלית משמעותית.
קשור
הצהרת סיאול והתחייבויות לבטיחות בינה מלאכותית מתקדמת
אמנת הבינה המלאכותית והצעדים הבאים ליישום חוק הבינה המלאכותית: נגישות ומערכות ציבוריות
קוד התנהגות לבינה מלאכותית לשימוש כללי (קבוצות עבודה 2, 3)
עקרונות ויעדי ההצהרה
בינה מלאכותית אחראית וממוקדת באדם: ההצהרה מדגישה כי בינה מלאכותית צריכה להיות מתוכננת, מפותחת, מיושמת ומשמשת באופן בטוח, אחראי, אמין וממוקד באדם.
הכרה בסיכונים: ההצהרה מכירה בפוטנציאל לנזק חמור, ואף קטסטרופלי, הנובע מהיכולות המשמעותיות ביותר של מודלים של בינה מלאכותית מתקדמת — בין אם באמצעות שימוש מכוון לרעה ובין אם כתוצאה מהשלכות בלתי מכוונות.
שיתוף פעולה בינלאומי: החותמים מסכימים כי הדרך הטובה ביותר להתמודד עם סיכונים אלה היא שיתוף פעולה בינלאומי, שמטרתו לבנות הבנה משותפת ומבוססת ראיות מדעיות של סיכוני הבינה המלאכותית ולפתח מדיניות מבוססת סיכונים להבטחת הבטיחות.
איזון בין חדשנות לרגולציה: ההצהרה מדגישה את חשיבותה של גישה פרו-חדשנית ומידתית לממשל ולרגולציה, הממקסמת את יתרונות הבינה המלאכותית תוך התייחסות לסיכונים הנלווים אליה.
שיח ציבורי
מבעד לעדשת המערכות הציבוריות והתשתיות הקריטיות, הדגשנו:
תרחישים ורלוונטיות: הדגשנו את חשיבות ההתמקדות במקרי שימוש ויישומים ממשיים של בינה מלאכותית, כפי שמשתקף בתרומותינו למאגרי הכלים לבטיחות בינה מלאכותית ולתאונות של ה-OECD. בטיחות וממשל בינה מלאכותית חייבים להתבסס על ניסיון חיים ויישומים מוחשיים.
גישה פתוחה ושקיפות: קידמנו גישה פתוחה למאגרי טכנולוגיות ציבוריות ומסייעות, לרבות לא רק יישומים אלא גם המודלים והתשתית הבסיסיים. תרומתנו למאגר הטכנולוגיות המסייעות של ה-OECD משקפת מחויבות זו לנגישות ושקיפות.
הערכות סיכונים: קראנו לביצוע הערכות סיכונים מקיפות וכוללניות, המתייחסות במפורש לקטינים, חולים, מטפלים ואוכלוסיות פגיעות אחרות — קבוצות שלעתים קרובות מוזנחות במסגרות הרגולטוריות הקיימות.
הקשר גיאוגרפי וסוציו-אקונומי: הדגשנו את חשיבות ההתחשבות בדפוסים סוציו-אקונומיים ובהקשרים היסטוריים באזורים שונים בעת יישום והערכת מערכות בינה מלאכותית, כדי להבטיח ממשל רלוונטי ברמה הגלובלית.
שיקולי תוכנה וחומרה במודלים מתקדמים: המלצנו על גישה הוליסטית להערכת מודלים מתקדמים של בינה מלאכותית — כגון מודלים לשוניים גדולים (LLMs), מודלים חזותיים-לשוניים (VLMs) ומודלים בסיסיים תלת-ממדיים — על ידי הכללת מערכות אקולוגיות תומכות של חומרה, כולל חיישנים וממשקים הפטיים המשמשים בתשתיות ציבוריות ומסייעות.
סביבות אימון וסביבות בדיקה רגולטוריות: תמכנו בפיתוח סביבות אימון בינתחומיות בעולם האמיתי, המשלבות רכיבי תוכנה וחומרה. אלה צריכות לכלול סביבות בדיקה וסביבות רגולטוריות כדי לפתח, לבדוק ולאמת מערכות בינה מלאכותית בבטחה בתנאים מבוקרים אך מציאותיים.
תקני נגישות רב-מודאליים: הצענו יישום של מערכות התראה ותקשורת רב-מודאליות סטנדרטיות (כגון רמזים שמיעתיים, חזותיים, הפטיים וטקסטואליים פשוטים) כדי להבטיח שמערכות בינה מלאכותית יהיו נגישות למשתמשים עם מוגבלויות חושיות או קוגניטיביות.
פיקוח אנושי ואחריותיות: המלצנו על פרוטוקולי פיקוח אנושי מדורגים לטכנולוגיות מסייעות מונעות בינה מלאכותית, ובמיוחד אלה המשפיעות על אוטונומיה או החלטות קריטיות. הדבר כולל תהליכי אימות רב-שכבתיים בין בעלי עניין להבטחת אמינות ובטיחות.
סביבות בדיקה קריטיות: עודדנו יצירת סביבות בדיקה ספציפיות לתחום, המשכפלות הגדרות שירות חיוניות — כגון בתי חולים, בתי ספר ומתקנים לדיור מוגן — כדי להעריך השפעות בעולם האמיתי על הנגישות, איכות השירות ואוטונומיית המשתמשים.
גישה למחקר עבור החברה האזרחית: תמכנו במסגרות גישה למחקר מאובטחות ושקופות, המאפשרות לארגוני החברה האזרחית ולחוקרים עצמאיים לחקור מערכות בינה מלאכותית בתרחישים בעולם האמיתי, עם הגנות מיוחדות למשתמשים פגיעים.
בחתימתנו על המכתב הפתוח של הצהרת בלצ'לי, אנו מאשרים מחדש את מחויבותנו לחיזוק הדיאלוג העולמי בנושא בטיחות ונגישות בינה מלאכותית באמצעות מגוון גישות משלימות. אנו תומכים בהרמוניזציה של מסגרות ממשל מתפתחות — כגון מסגרת ניהול סיכוני הבינה המלאכותית של NIST, תקני ISO/IEC וחוק הבינה המלאכותית של האיחוד האירופי — תוך הדגשה שפיקוח אפקטיבי חייב לשלב נקודות מבט ושיטות של בעלי עניין מרובים. על ידי גישור בין תקנים טכניים לעיצוב ממוקד-אדם ושילוב נגישות לאורך מחזור החיים של הבינה המלאכותית, נוכל להבטיח שמודלים מתקדמים לא רק יפחיתו סיכונים, אלא גם ירחיבו באופן פעיל את היכולות של אלה הזקוקים ביותר לטכנולוגיות מסייעות. גישה משולבת זו חיונית להבטחה שהבינה המלאכותית תקדם את כבוד האדם, האוטונומיה והנגישות בכל קהילה ובכל הקשר.
• • •
הפניות
¹ ממשלת בריטניה. "הצהרת בלצ'לי של המדינות שהשתתפו בפסגת הבטיחות בבינה מלאכותית, 1-2 בנובמבר 2023." GOV.UK. 1 בנובמבר 2023.
² ממשלת בריטניה. "סיכום יו"ר פסגת הבטיחות בבינה מלאכותית 2023, פארק בלצ'לי." GOV.UK. 2 בנובמבר 2023.
³ NIST. "מסגרת לניהול סיכוני בינה מלאכותית (AI RMF 1.0)." NIST AI.100-1. המכון הלאומי לתקנים וטכנולוגיה. 26 בינואר 2023.
⁴ הארגון הבינלאומי לתקינה. "ISO/IEC 23894:2023 — טכנולוגיית מידע — בינה מלאכותית — הנחיות לניהול סיכונים." 2023.
⁵ OECD.AI. "AI Incidents Monitor (AIM) — פלטפורמה גלובלית לאירועי בינה מלאכותית ומפגעים." 2023.
⁶ OECD. "הגדרת אירועי בינה מלאכותית ומונחים קשורים." ארגון לשיתוף פעולה ופיתוח כלכלי. 2024.