פצצה: חברי הנהלה לשעבר של OpenAI חושפים את השקרים הנטענים של אלטמן
פצצה: חברי הדירקטוריון לשעבר של OpenAI חושפים את השקרים הנטענים של אלטמן, מדגישים את החששות בנוגע לבטיחות ולממשל של בינה מלאכותית. חברי הדירקטוריון לשעבר חולקים פרטים מזעזעים על התנהלותו של אלטמן, מעוררים שאלות לגבי הרגולציה העצמית של OpenAI והצורך בפיקוח חיצוני להגנה על האינטרסים של האנושות.
24 בפברואר 2025

מאמר הבלוג הזה מציע מבט מגלה על הפעולות הפנימיות של OpenAI, אחת מחברות המחקר המובילות בתחום הבינה המלאכותית בעולם. בהציגו תובנות מחברי הדירקטוריון לשעבר, הוא מאיר אור על סוגיות מדאיגות סביב שקיפות, בטיחות והנהגה של המנכ"ל סם אולטמן. הקוראים יקבלו הבנה עמוקה יותר של האתגרים והמחלוקות הסובבים את פיתוח מערכות בינה מלאכותית עוצמתיות, וחשיבות הממשל והפיקוח החזקים להבטחת שהטכנולוגיות האלה יועילו לאנושות בכללותה.
למה הדירקטוריון הקודם של OpenAI פיטר את סם אלטמן
חששות לגבי המיקוד של OpenAI בבטיחות ואבטחה
OpenAI מקימה ועדת בטיחות ואבטחה
למה הדירקטוריון הקודם של OpenAI פיטר את סם אלטמן
למה הדירקטוריון הקודם של OpenAI פיטר את סם אלטמן
לפי הראיון עם הלן טונר, חברה לשעבר בדירקטוריון של OpenAI, ההחלטה של הדירקטוריון לפטר את סם אלטמן כמנכ"ל נבעה מכמה סוגיות מדאיגות:
-
חוסר שקיפות: אלטמן הסתיר מהדירקטוריון מידע חשוב שוב ושוב, כמו השקת ChatGPT בנובמבר 2022 והבעלות שלו על קרן ההשקעות של OpenAI, למרות שטען להיות חבר דירקטוריון עצמאי.
-
מידע לא מדויק: אלטמן סיפק לדירקטוריון מידע לא מדויק על תהליכי הבטיחות של החברה, מה שהפך את הפיקוח והערכת האפקטיביות של אמצעים אלה למשימה בלתי אפשרית.
-
הפרת אמון: הדירקטוריון איבד אמון במנהיגותו של אלטמן בשל דפוס התנהגות שכלל שקרים, שימוש בהטעיה ומה שחלק מהמנהלים תיארו כ"התעללות נפשית". מנהלים בכירים רבים שיתפו באופן פרטי את חששותיהם החמורים עם הדירקטוריון.
-
חוסר יכולת לממש את המשימה: הדירקטוריון הסיק שאלטמן אינו האדם הנכון להוביל את OpenAI במשימתה לפתח מערכות בינה מלאכותית כללית (AGI) שיועילו לכל האנושות, כפי שהיתה הכוונה המקורית של המבנה הלא רווחי של החברה.
בסופו של דבר, הדירקטוריון הרגיש שההתנהגות של אלטמן פגעה ביכולתם לספק פיקוח עצמאי ולוודא שמשימת הטובין הציבורי של החברה תישאר העדיפות העליונה. למרות שחקירה פנימית מצאה שהתנהגותו של אלטמן לא מחייבת פיטורין, הדירקטוריון עדיין האמין שהחלפת הנהגה הייתה הכרחית לטובת האינטרסים הטובים ביותר של OpenAI ושל משימתה.
חששות לגבי המיקוד של OpenAI בבטיחות ואבטחה
חששות לגבי המיקוד של OpenAI בבטיחות ואבטחה
ההתפתחויות האחרונות ב-OpenAI מעוררות חששות משמעותיים לגבי מחויבות החברה לבטיחות וביטחון. על פי חברת הדירקטוריון לשעבר הלן טונר, היו בעיות ארוכות טווח בהתנהגותו של המנכ"ל סם אלטמן, כולל:
- הסתרת מידע מהדירקטוריון, כמו השקת ChatGPT בנובמבר 2022 ללא הודעה מוקדמת.
- אי-גילוי בעלותו על קרן ההשקעות של OpenAI, למרות שטען להיות חבר דירקטוריון עצמאי.
- מסירת מידע לא מדויק לדירקטוריון על תהליכי הבטיחות של החברה, מה שהקשה על הדירקטוריון להעריך את האפקטיביות שלהם.
טענות אלה, בצירוף לפרישות של מנהלים בכירים כמו איליה סוצקבר ודריו אמודי, שציינו חששות לגבי העדפת OpenAI של תכונות חדשות על פני בטיחות, מצייר תמונה מדאיגה.
ההקמה של ועדת בטיחות וביטחון חדשה ב-OpenAI, בראשות אלטמן עצמו, עושה מעט כדי להשרות ביטחון. גישה זו של רגולציה עצמית, ללא פיקוח עצמאי, כנראה לא תהיה יעילה בהתמודדות עם הבעיות העמוקות שהודגשו על ידי חברי הדירקטוריון לשעבר.
חוסר השקיפות והזלזול הנראה בחששות הבטיחות הם מדאיגים במיוחד נוכח מעמדה של OpenAI כמובילה במחקר ובפיתוח של בינה מלאכותית. בעת שהחברה דוחפת לקראת מערכות בינה מלאכותית מתקדמות יותר, הסיכונים הפוטנציאליים לחברה אינם יכולים להתעלם מהם.
לסיכום, החששות שהועלו לגבי מיקוד OpenAI בבטיחות וביטחון מבוססים היטב וראויים לתשומת לב רצינית. רגולציה יעילה ופיקוח עצמאי עשויים להיות הכרחיים כדי להבטיח שפיתוח טכנולוגיות בינה מלאכותית חזקות יהיה מיושר עם האינטרס הציבורי הרחב.
OpenAI מקימה ועדת בטיחות ואבטחה
OpenAI מקימה ועדת בטיחות ואבטחה
הוועדה החדשה אחראית על הגשת המלצות בנוגע להחלטות קריטיות בנושא בטיחות וביטחון עבור כל פרויקטי OpenAI. הוועדה תעריך ותפתח עוד את תהליכי ואמצעי הבטיחות של OpenAI במהלך 90 הימים הקרובים.
הוועדה בראשות הדירקטורים ברט טיילור, אדם ד'אנג'לו, ניקול סליגמן וסם אלטמן. מומחי טכנולוגיה ומדיניות מ-OpenAI, כולל ראשי הכנה, מערכות בטיחות, מדע היישור, אבטחה והמדען הראשי, יהיו גם חברים בוועדה. בנוסף, OpenAI תשכור ותיעץ עם מומחי בטיחות, אבטחה וטכנולוגיה אחרים כדי לתמוך בעבודה זו, כולל בעבר בכירים בתחום הסייבר.
לאחר תקופת הסקירה בת 90 הימים, ועדת הבטיחות והביטחון תשתף את המלצותיה עם הדירקטוריון המלא של OpenAI. לאחר סקירת הדירקטוריון, OpenAI תפרסם באופן ציבורי עדכון על ההמלצות שאומצו, בהתאם לשיקולי בטיחות וביטחון.
צעד זה של OpenAI מגיע על רקע החששות שהועלו על ידי חברי הדירקטוריון לשעבר בנוגע לעדיפות שהחברה נותנת לבטיחות וביטחון. הקמת ועדה פנימית זו מעוררת שאלות לגבי עצמאותה ויכולתה לספק פיקוח משמעותי, נוכח מעורבותו של המנכ"ל סם אלטמן ושאר הנהגת OpenAI. הציבור יעקוב מקרוב כדי לראות אם ועדה זו תוביל לשינויים מהותיים בגישה של OpenAI לבטיחות בינה מלאכותית.
שאלות נפוצות
שאלות נפוצות