פתיחת הקונטרוברסיות המדאיגות ב-OpenAI: צלילה עמוקה

פירוק הקונטרוברסיות המדאיגות ב-OpenAI: צלילה עמוקה לתוך השינויים האחרונים בהנהגה של חברת הבינה המלאכותית, חששות בנוגע לבטיחות והשאלות האתיות הסובבות את דגמי השפה המתקדמים שלה.

24 בפברואר 2025

party-gif

OpenAI, חברת הבינה המלאכותית המפורסמת, הייתה כותרות החדשות לאחרונה מסיבות שגויות. הפוסט הזה חודר לתוך הסוגיות המדאיגות הסובבות את החברה, החל מעברות מנהיגות וחששות בטיחותיים ועד לשימוש בנתונים ושאלות אתיות. גלה את הדרמה מאחורי הקלעים והחוסר הנוחות ההולך וגובר לגבי הגישה של OpenAI כשהיא ממשיכה לדחוף את הגבולות של טכנולוגיית הבינה המלאכותית.

חוסר המודעות של הדירקטוריון לשיגור ChatGPT

לפי הלן טונר, חברה לשעבר בדירקטוריון של OpenAI, הדירקטוריון לא הודע מראש על השקת ChatGPT בנובמבר 2022. הדירקטוריון, שהיה由 שישה חברים, כולל המנכ"ל סם אולטמן, הנשיא גרג ברוקמן והמהנדס הראשי איליה סוצקבר, למדו על השקת ChatGPT בטוויטר, במקום להיות מודעים על ידי הנהלת החברה.

גילוי זה מעלה שאלות לגבי השקיפות והתקשורת בתוך הנהלת OpenAI. בעוד שהטכנולוגיה הבסיסית של ChatGPT, GPT-3, כבר הייתה בשימוש על ידי חברות שונות, כולל Jasper, העובדה שחצי מהדירקטוריון לא היה מודע לעיתוי ההשקה מעידה על חוסר תיאום ושיתוף מידע.

הטענה שChatGPT נועד להיות תצוגת מחקר, וOpenAI לא ציפתה לתגובה הציבורית העצומה, מספקת מעט הקשר. עם זאת, העובדה שחברי הדירקטוריון האחראים על פיקוח על פעילות החברה נותרו מחוץ למעגל מעלה חששות לגבי תהליכי קבלת ההחלטות והעדפת הבטיחות והביטחון בתוך OpenAI.

אירוע זה, יחד עם אירועים אחרים לאחרונה, כמו עזיבת ראש הסימון יאן לקון והגילויים על הסכמי אי-הפרדה, תרמו לתחושה הולכת וגוברת של חוסר נוחות ואי-אמון סביב הפרקטיקות והעדיפויות של OpenAI.

חששות לגבי פתיחות ושקיפות ב-OpenAI

האירועים האחרונים הסובבים את OpenAI העלו חששות משמעותיים לגבי הפתיחות והשקיפות של החברה. כמה נקודות מרכזיות מדגישות את הסוגיות האלה:

  1. חוסר מודעות של הדירקטוריון: לפי חברת הדירקטוריון לשעבר הלן טונר, הדירקטוריון לא הודע מראש על השקת ChatGPT. זה מצביע על חוסר תקשורת ושקיפות מדאיגים בין ההנהלה לבין הדירקטוריון המפקח.

  2. הוראות החזרת מניות: מסמכים שדלפו חושפים שלOpenAI היו הוראות החזרת מניות תוקפניות, שדרשו מעובדים עוזבים לחתום על הסכמי אי-הפרדה. פרקטיקה זו נחשבה כאתית ואולי אפילו בלתי חוקית.

  3. פירוק צוות הסימון: עזיבתו של יאן, ראש הסימון לשעבר ב-OpenAI, ופירוק צוות הסימון לאחר מכן, מעלה שאלות לגבי מחויבות החברה לבטיחות ולפיתוח אחראי של בינה מלאכותית.

  4. ניגודי עניינים בוועדת הבטיחות: הקמת ועדה חדשה לבטיחות וביטחון, הכוללת את המנכ"ל סם אולטמן, נחשבה כניגוד עניינים פוטנציאלי, מכיוון שמקבלי ההחלטות עשויים להרוויח מהטכנולוגיה שהם אמורים להעריך.

  5. אי-בהירות סביב מקורות הנתונים: OpenAI היה מהסס לגבי מקורות הנתונים ששימשו להדרכת הדגמים שלה, כמו Sora ו-GPT-4. חוסר השקיפות הזה מעורר חששות לגבי פרטיות וסוגיות אתיות.

  6. האירוע של סקרלט ג'והנסון: המחלוקת סביב השימוש בקול הדומה לזה של סקרלט ג'והנסון בדגמת GPT-4 מדגישה עוד יותר את הצורך בשקיפות ובאחריותיות גדולה יותר בפרקטיקות של OpenAI.

פירוק צוות ההיישור והוועדה החדשה לבטיחות

לאחר שיאן, ראש הסימון ב-OpenAI, התפטר מתפקידו בטענה לחילוקי דעות עם העדיפויות של החברה, OpenAI פירקה את צוות הסימון. זה העלה חששות נוספים לגבי מחויבות החברה לבטיחות ולפיתוח אחראי של מערכות בינה מלאכותית.

בתגובה, OpenAI הקימה ועדה חדשה לבטיחות וביטחון, בראשות הדירקטורים ברט טיילור, אדם ד'אנג'לו, ניקול סייגמן והמנכ"ל סם אולטמן. ועדה זו אמורה להמליץ לדירקטוריון המלא על החלטות בטיחות וביטחון קריטיות לכל פרויקטי ופעילויות OpenAI. 然, הרכב של ועדה זו עורר גבות, מכיוון שהיא כוללת את המנכ"ל סם אולטמן, שאחראי גם על ההחלטות הפיננסיות והשקת המוצרים של החברה. זה מעורר ניגודי עניינים פוטנציאליים, כאשר אותו אדיבדיוק מפקח על הפיתוח והבטיחות של הטכנולוגיות של OpenAI.

ההחלטה לפרק את צוות הסימון והקמת ועדת הבטיחות והביטחון החדשה, עם אולטמן כחבר, הגבירו עוד יותר את החששות לגבי מחויבות OpenAI לבטיחות ושקיפות. חוסר הפיקוח החיצוני והעצמאי על סוגיות קריטיות אלה הוביל לשאלות לגבי יכולת החברה לנווט את הסכנות הגלומות בפיתוח מערכות בינה מלאכותית מתקדמות.

חששות לגבי נהלי הנתונים של OpenAI והסוגיה של סקרלט ג'והנסון

פרקטיקות הנתונים של OpenAI עוררו ביקורת, כאשר דווח שהחברה השתמשה בכמות משמעותית של נתוני יוטיוב כדי להדריך את הדגמים שלה לשפה, כולל GPT-4. המנהל הטכנולוגי, מירה מוראטי, לא יכול לספק פרטים ברורים על הנתונים ששימשו להדרכת הדגם Sora, מה שמעורר חששות לגבי השקיפות.

בנוסף, החברה נתקלה בבעיה משפטית עם השחקנית סקרלט ג'והנסון, שחשבה שOpenAI השתמשה בקולה ללא רשות כדי ליצור את דגם הקול Sky עבור GPT-4. בעוד שOpenAI טענה שהקול לא נועד להיות דומה לזה של ג'והנסון, הראיות מצביעות על ההיפך, עם ציוץ של המנכ"ל סם אולטמן המתייחס לסרט "Her", שבו הופיע קולה של ג'והנסון.

אירועים אלה, יחד עם החששות שהעלו עובדים לשעבר כמו יאן לגבי העדפת החברה ל"מוצרים מבריקים" על פני בטיחות והתאמה, הרסו עוד יותר את האמון הציבורי בפרקטיקות ובתהליכי קבלת ההחלטות של OpenAI. הקמת ועדת הבטיחות והביטחון החדשה, בראשות אולטמן וחברים פנימיים אחרים, גם נחשבה לניגוד עניינים פוטנציאלי, מכיוון שההמלצות של הוועדה עשויות להיות מושפעות מהאינטרסים הפיננסיים של החברה.

בכללות, התפתחויות אלה העלו שאלות משמעותיות לגבי השקיפות, שימוש בנתונים והמחויבות של OpenAI לפיתוח אחראי של בינה מלאכותית, שיסתברו כנושא לדיון ולביקורת נמשכים בקהילת הבינה המלאכותית.

מסקנה

האירועים האחרונים הסובבים את OpenAI העלו חששות משמעותיים לגבי השקיפות, הפרקטיקות הבטיחותיות והנהגת החברה. הגילויים על חוסר המודעות של הדירקטוריון לגבי השקת ChatGPT, הסכמי אי-הפרדה עם עובדים לשעבר, וניגודי העניינים הפוטנציאליים בוועדה החדשה לבטיחות וביטחון, כל אלה תרמו לתחושה הולכת וגוברת של חוסר נוחות.

בעוד שOpenAI ללא ספק הפיקה התקדמויות טכנולוגיות מרשימות, הראיות ההולכות ונצברות מצביעות על דפוס מדאיג של העדפת פיתוח המוצר על פני ממשל אחראי ואמצעי בטיחות. עזיבתם של דמויות מפתח כמו יאן, ראש הסימון, מדגישה עוד יותר את המתחים הפנימיים והעדיפויות הסותרות בתוך הארגון.

כפי שנוף הבינה המלאכותית ממשיך להתפתח במהירות, חשוב שחברות כמו OpenAI יקיימו מחויבות חזקה לשקיפות, לפרקטיקות אתיות ולבטיחות של הטכנולוגיות שלהן. הציבור זכאי להבנה ברורה וגלויה של הנתונים, התהליכים והקבלת ההחלטות מאחורי מערכות בינה מלאכותית עוצמתיות אלה.

בהמשך, יהיה חשוב שOpenAI תתמודד ישירות עם חששות אלה, תיישם פיקוח חיצוני חזק, ותפגין מחויבות אמיתית לפיתוח אחראי של טכנולוגיות בינה מלאכותית מהפכניות. רק אז ניתן יהיה להשיב את האמון הציבורי במלואו בחברה.

שאלות נפוצות