התגברות על בינה מלאכותית בעמק הסיליקון: מפתחים נותרו נדהמים מתקנות חדשות מקיפות
התכוננו לפשיטה על בינה מלאכותית בעמק הסיליקון כאשר תקנות חדשות מאיימות להפריע לפיתוח בינה מלאכותית. גלו את 10 הדברים המטורפים ביותר על חקיקה טכנולוגית אוטוריטרית זו שעלולה לסגור את חלון האוורטון.
15 בפברואר 2025

בפוסט הבלוג הזה, תגלה את הפרטים המזעזעים של מדיניות AI מוצעת שגורמת לתעשיית הטכנולוגיה להיות בזעם. הכן את עצמך לגלישה לתוך העתיד של הסדרת AI והשפעה הפוטנציאלית על מפתחים וחדשנים. ניתוח מעמיק זה יגרום לך לשאול שאלות על האיזון בין התקדמות טכנולוגית לבין שליטת הממשלה.
סיכונים פוטנציאליים של מערכות AI מתקדמות
מערכת דירוג AI: בנצ'מרקים של Flops לעומת יכולות
דיווח חובה וניטור של פיתוח AI
דרישות בטיחות מחמירות עבור AI בעלי דאגה גבוהה
פטורים עבור יישומי AI צרים
פיקוח ממשלתי ושליטה חירום
הגנה על מתריעים
סיכונים פוטנציאליים של מערכות AI מתקדמות
סיכונים פוטנציאליים של מערכות AI מתקדמות
המדיניות המוצעת בנושא בינה מלאכותית מדגישה מספר חששות עיקריים בנוגע לסיכונים הפוטנציאליים של מערכות בינה מלאכותית מתקדמות:
-
סיכונים קיומיים וקטסטרופליים: המדיניות מגדירה "סיכון ביטחוני משמעותי" ככולל כל סיכון קיומי או קטסטרופלי גלובלי שעלול לפגוע בכל אדם על פני הכדור, כגון מערכות בינה מלאכותית שמקימות סוכנים אוטונומיים מתרבים או שבורחות מהשליטה האנושית לצמיתות.
-
בנצ'מרקים של יכולת לעומת בנצ'מרקים של חישוב: המדיניות מציעה להשתמש בבנצ'מרקים מבוססי חישוב (למשל, FLOPS) כדי לסווג מערכות בינה מלאכותית לרמות שונות של דאגה. עם זאת, ההצעה מכירה בכך שגישה זו עשויה שלא לשקף בדיוק את היכולות האמיתיות של מערכות בינה מלאכותית, שכן שיפורים ביעילות יכולים להוביל למודלים מסוגלים יותר עם פחות חישוב.
-
עצירת אימון מוקדם: המדיניות מציעה שמערכות בינה מלאכותית בדאגה בינונית חייבות לעבור בדיקות ביצועים סדירות, והאימון חייב להיעצר אם המערכת מציגה יכולות גבוהות באופן בלתי צפוי. זה עלול להאט את פיתוח מערכות בינה מלאכותית מתקדמות.
-
קביעת בינה מלאכותית בדאגה עצומה: המדיניות דורשת פיתוח של תקנים לזיהוי מערכות בינה מלאכותית שיכולות לסייע בפיתוח נשק, לערער את האיזון העולמי או להוות סיכונים קטסטרופליים אחרים. הגדרת תקנים אלה בתוך מסגרת זמן של 12 חודשים עשויה להיות מאתגרת בשל הקצב המהיר של התקדמות הבינה המלאכותית.
-
ניטור חומרה: המדיניות כוללת דרישה לדווח על רכישה, מכירה ושימוש בחומרה בעלת ביצועים גבוהים (למשל, GPU) המשמשת לפיתוח בינה מלאכותית, מה שעלול להוביל לפיקוח ממשלתי מוגבר ולהגבלות על גישה לחומרה כזו.
-
צפיות של נזק: המדיניות קובעת שמפתחים לא יוכלו להשתמש ב"הפתעה" מאי-אמינות של מערכת בינה מלאכותית כהגנה תקפה, מכיוון שהם היו אמורים לדעת שמערכות בינה מלאכותית בגבול הטכנולוגי מציבות מגוון רחב של סיכונים חמורים, שחלקם עשויים שלא להיות ניתנים לזיהוי מראש.
-
סמכויות חירום: המדיניות מעניקה לנשיא ולמנהל את היכולת להכריז על מצב חירום ולהטיל סמכויות נרחבות, כולל השמדת חומרת בינה מלאכותית, מחיקת משקלי המודל ותפיסה פיזית של מעבדות בינה מלאכותית, בתגובה לסיכוני ביטחון משמעותיים שנתפסים.
-
הגנה על מתריעים: המדיניות מספקת הגנה למתריעים שמדווחים או מסרבים להשתתף בפרקטיקות אסורות על-ידי חוק הבינה המלאכותית, גם אם האמונות שלהם לגבי ההפרות היו שגויות בסופו של דבר.
מערכת דירוג AI: בנצ'מרקים של Flops לעומת יכולות
מערכת דירוג AI: בנצ'מרקים של Flops לעומת יכולות
המדיניות המוצעת בנושא בינה מלאכותית מגדירה ארבע רמות של מערכות בינה מלאכותית על בסיס דרישות החישוב שלהן:
- רמה 1 (בינה מלאכותית בדאגה נמוכה): מערכות בינה מלאכותית שאומנו על פחות מ-10^24 FLOPS
- רמה 2 (בינה מלאכותית בדאגה בינונית): מערכות בינה מלאכותית שאומנו על 10^24 עד 10^26 FLOPS
- רמה 3 (בינה מלאכותית בדאגה גבוהה): מערכות בינה מלאכותית שאומנו על יותר מ-10^26 FLOPS
- רמה 4 (בינה מלאכותית בדאגה עצומה): מערכות בינה מלאכותית בעלות יכולות שעלולות להוות סיכונים קטסטרופליים
然而, גישה זו של שימוש בסיפי FLOPS כדי לסווג מערכות בינה מלאכותית היא בעייתית. כפי שצוין, כוח חישוב (FLOPS) אינו מתרגם ישירות ליכולות של מערכת בינה מלאכותית. גורמים כמו ארכיטקטורת המודל, נתוני האימון וטכניקות אופטימיזציה יכולים להשפיע משמעותית על יכולות מערכת בינה מלאכותית, ללא קשר לדרישות החישוב שלה.
ההצעה למדיניות אינה מתחשבת בהתקדמות המהירה ביעילות הבינה המלאכותית, שבה מודלים קטנים ומרוכזים יותר יכולים להשיג ביצועים דומים או אפילו עדיפים בהשוואה למודלים גדולים ודורשי חישוב רב יותר. דוגמאות כמו LLaMA ו-Flan-T5 מוכיחות שמערכות בינה מלאכותית יעילות בחישוב יכולות להיות בעלות יכולות משמעותיות.
דיווח חובה וניטור של פיתוח AI
דיווח חובה וניטור של פיתוח AI
המדיניות המוצעת כוללת מספר הוראות מדאיגות בנוגע לרגולציה וניטור של פיתוח בינה מלאכותית:
-
היא מגדירה "סיכון ביטחוני משמעותי" ככולל כל סיכון קיומי או קטסטרופלי, איומים על תשתיות קריטיות, ביטחון לאומי או בטיחות הציבור, וכן את הסיכון שמערכות בינה מלאכותית יקימו סוכנים אוטונומיים מתרבים או יברחו מהשליטה האנושית לצמיתות.
-
היא מקימה מערכת מדורגת לסיווג מערכות בינה מלאכותית על בסיס FLOPS (פעולות נקודה צפה לשנייה), כאשר המערכות החזקות ביותר (>10^26 FLOPS) נחשבות "בדאגה עצומה". גישה זו פגומה, שכן כוח חישוב לבדו אינו קובע את יכולות או הסיכונים של מערכת בינה מלאכותית.
-
עבור מערכות בינה מלאכותית "בדאגה בינונית", המדיניות תדרוש בדיקות ביצועים חודשיות ודיווח לממשלה, כאשר האימון יידרש להיעצר אם המערכת מציגה ביצועים "בלתי צפויים גבוהים". זה עלול לעודד דיווח חסר או ניצול של המערכת.
-
המדיניות מעניקה לממשלה סמכויות חירום נרחבות, כולל היכולת להשמיד חומרת בינה מלאכותית, למחוק משקלי מודל ולתפוס פיזית מעבדות בינה מלאכותית - גם אם הסיכונים הספציפיים היו "הפתעות" למפתחים. זה עלול להיות להיות בעל השפעה מצנינת חריפה על מחקר ופיתוח בינה מלאכותית.
דרישות בטיחות מחמירות עבור AI בעלי דאגה גבוהה
דרישות בטיחות מחמירות עבור AI בעלי דאגה גבוהה
המדיניות המוצעת מתווה דרישות בטיחות קפדניות עבור מערכות בינה מלאכותית "בדאגה גבוהה", המוגדרות כאלה שאומנו על יותר מ-10^26 FLOPS. הנקודות המרכזיות כוללות:
-
מפתחים חייבים לספק ראיות חותכות שמערכת הבינה המלאכותית אינה מציבה אפשרות משמעותית של סיכונים קטסטרופליים, כמו היכולת לסייע בפיתוח נשק להשמדה המונית, התפשטות אוטונומית או ערעור של איזון הכוחות העולמי.
-
ראיות אלה חייבות לחרוג מהוכחה פשוטה שהמערכת אינה מסוכנת כרגע - הנטל מוטל על המפתחים להוציא מכלל אפשרות כל סיכון משמעותי עתידי.
-
היתרים לפיתוח בינה מלאכותית בדאגה גבוהה יאושרו בדרך כלל תוך 90 ימים, אם בכלל, מה שמטיל תהליך איטי ובלתי ודאי.
-
המדיניות מעניקה לממשלה סמכויות חירום נרחבות, כולל היכולת להשמיד חומרה, למחוק משקלי מודל ולתפוס פיזית מעבדות בינה מלאכותית כדי למנוע פיתוח נוסף.
פטורים עבור יישומי AI צרים
פטורים עבור יישומי AI צרים
ההצעה כוללת הוראה לטופס פטור "מסלול מהיר" שמאפשר למפתחי בינה מלאכותית שאינם מציבים סיכוני ביטחון משמעותיים להמשיך בעבודתם, גם אם מערכות הבינה המלאכותית שלהם מוגדרות טכנית כ"בינה מלאכותית בגבול הטכנולוגי".
ההנהלה מחויבת לעצב טופס בן שתי עמודים שיאפשר למכוניות נהיגה עצמית, מערכות גילוי הונאה ומנועי המלצות להמשיך לפעול ללא צורך להשתתף במסגרת הרגולטורית האחרת המתוארת בהצעה.
פטור זה ליישומי בינה מלאכותית ממוקדים נראה כגישה סבירה, מכיר בכך שרבים ממערכות המונעות על-ידי בינה מלאכותית מציבים סיכונים מינימליים ולא צריכים להיות מעוכבים יתר על המידה באותן תקנות המיועדות למערכות בינה מלאכותית חזקות ומסוכנות יותר.
פיקוח ממשלתי ושליטה חירום
פיקוח ממשלתי ושליטה חירום
המדיניות המוצעת בנושא בינה מלאכותית כוללת מספר הוראות מדאיגות המעניקות לממשלה סמכות נרחבת לרגולציה ולהגבלת פיתוח בינה מלאכותית:
-
המדיניות מגדירה "סיכוני ביטחון משמעותיים" בצורה רחבה מאוד, כולל כל סיכון קיומי או קטסטרופלי, איומים על תשתיות קריטיות וסיכון שמערכות בינה מלאכותית יברחו מהשליטה האנושית. הגדרה מעורפלת זו עשויה להצדיק התערבות קשה יד.
-
המדיניות מקימה מערכת מדורגת לסיווג מערכות בינה מלאכותית על בסיס כוח החישוב שלהן, כאשר רמות גבוהות יותר מתמודדות עם תקנות מחמ
שאלות נפוצות
שאלות נפוצות