قنبلة: أعضاء سابقون في مجلس إدارة OpenAI يكشفون عن ادعاءات كاذبة لـ Altman

قنبلة: أعضاء مجلس إدارة السابقون في OpenAI يكشفون عن ادعاءات كاذبة لـ Altman، مما يسلط الضوء على المخاوف بشأن سلامة الذكاء الاصطناعي والحوكمة. يشارك أعضاء مجلس الإدارة السابقون تفاصيل صادمة عن سلوك Altman، مما يثير تساؤلات حول تنظيم الذات في OpenAI والحاجة إلى إشراف خارجي لحماية مصالح البشرية.

٢١ فبراير ٢٠٢٥

party-gif

هذا المنشور المدونة يقدم نظرة كاشفة إلى الأعمال الداخلية لـ OpenAI ، وهي إحدى شركات البحث الرائدة في مجال الذكاء الاصطناعي في العالم. مع تقديم رؤى من أعضاء مجلس الإدارة السابقين ، فإنه يسلط الضوء على قضايا مقلقة حول الشفافية والسلامة وقيادة الرئيس التنفيذي سام ألتمان. سيكتسب القراء فهمًا أعمق للتحديات والجدل المحيط بتطوير أنظمة الذكاء الاصطناعي القوية ، وأهمية الحوكمة والإشراف الصارمين لضمان استفادة هذه التقنيات من البشرية ككل.

لماذا أقال مجلس إدارة OpenAI السابق سام ألتمان

وفقًا للمقابلة مع هيلين تونر، عضو مجلس إدارة سابق في OpenAI، كان قرار المجلس بإقالة سام ألتمان كرئيس تنفيذي بسبب عدة مشاكل مقلقة:

  1. نقص الشفافية: حجب ألتمان مرارًا معلومات مهمة عن المجلس، مثل إطلاق ChatGPT في نوفمبر 2022 وملكيته لصندوق بدء تشغيل OpenAI، على الرغم من ادعائه أنه عضو مجلس مستقل.

  2. معلومات غير دقيقة: قدم ألتمان للمجلس معلومات غير دقيقة عن عمليات السلامة في الشركة، مما جعل من المستحيل على المجلس الإشراف بشكل صحيح وتقييم فعالية هذه التدابير.

  3. انتهاك الثقة: فقد المجلس الثقة في قيادة ألتمان بسبب نمط السلوك الذي تضمن الكذب والتلاعب وما وصفه بعض المديرين التنفيذيين بـ "الإساءة النفسية". شارك قادة كبار متعددون مخاوفهم الخطيرة مع المجلس بشكل خاص.

  4. عدم القدرة على الوفاء بالمهمة: خلص المجلس إلى أن ألتمان ليس الشخص المناسب لقيادة OpenAI في مهمتها لتطوير أنظمة الذكاء الاصطناعي العام (AGI) التي تنفع جميع البشرية، كما كان مقصودًا في الهيكل غير الربحي الأصلي للشركة.

في النهاية، شعر المجلس أن سلوك ألتمان قد أضعف قدرتهم على توفير إشراف مستقل وضمان بقاء مهمة المنفعة العامة للشركة هي الأولوية القصوى. على الرغم من أن التحقيق الداخلي وجد أن سلوك ألتمان لا يستوجب الإقالة، إلا أن المجلس لا يزال يعتقد أن تغيير في القيادة ضروري لمصلحة OpenAI ومهمتها.

مخاوف بشأن تركيز OpenAI على السلامة والأمن

تثير التطورات الأخيرة في OpenAI مخاوف كبيرة بشأن التزام الشركة بالسلامة والأمن. وفقًا لعضو المجلس السابق هيلين تونر، كانت هناك مشاكل طويلة الأمد في سلوك الرئيس التنفيذي سام ألتمان، بما في ذلك:

  • حجب المعلومات عن المجلس، مثل إطلاق ChatGPT في نوفمبر 2022 دون إشعار مسبق.
  • الفشل في الكشف عن ملكيته لصندوق بدء تشغيل OpenAI، على الرغم من ادعائه أنه عضو مجلس مستقل.
  • تقديم معلومات غير دقيقة للمجلس بشأن عمليات السلامة في الشركة، مما جعل من الصعب على المجلس تقييم فعاليتها.

هذه الادعاءات، إلى جانب مغادرة كبار القادة إيليا سوتسكيفر وداريو أموديي، الذين أشاروا إلى مخاوف بشأن أولوية OpenAI للميزات الجديدة على السلامة، تُرسم صورة مقلقة.

تشكيل لجنة جديدة للسلامة والأمن داخل OpenAI، بقيادة ألتمان نفسه، لا يثير الثقة. هذا النهج التنظيمي الذاتي، دون إشراف مستقل، من غير المرجح أن يكون فعالًا في معالجة المشاكل العميقة التي أبرزها أعضاء المجلس السابقون.

إن نقص الشفافية والإهمال الظاهر للمخاوف المتعلقة بالسلامة مقلق بشكل خاص بالنظر إلى موقع OpenAI كرائد في أبحاث الذكاء الاصطناعي وتطويره. وبينما تدفع الشركة نحو أنظمة الذكاء الاصطناعي الأكثر تقدمًا، لا يمكن تجاهل المخاطر المحتملة على المجتمع.

وفي الختام، فإن المخاوف المثارة بشأن تركيز OpenAI على السلامة والأمن مبررة وتستحق اهتمامًا جادًا. قد يكون من الضروري وجود تنظيم فعال وإشراف مستقل لضمان أن يكون تطوير تقنيات الذكاء الاصطناعي القوية متماشيًا مع المصلحة العامة الأوسع.

تشكيل OpenAI لجنة للسلامة والأمن

تكون اللجنة الجديدة مسؤولة عن تقديم توصيات بشأن قرارات السلامة والأمن الحرجة لجميع مشاريع OpenAI. ستقوم اللجنة بتقييم وتطوير عمليات وضمانات OpenAI بشكل أكبر خلال 90 يومًا.

تترأس اللجنة المديرون بريت تايلور وآدم دي أنجيلو وناتالي سيليجمان وسام ألتمان. سيكون خبراء التقنية والسياسة من OpenAI، بما في ذلك رؤساء الاستعداد وأنظمة السلامة والتوافق العلمي والأمن والعالم الرئيسي، أيضًا في اللجنة. بالإضافة إلى ذلك، ستحتفظ OpenAI باستشاريين آخرين في مجال السلامة والأمن والخبراء التقنيين لدعم هذا العمل، بما في ذلك مسؤولون سابقون في مجال الأمن السيبراني.

بعد فترة المراجعة البالغة 90 يومًا، ستشارك لجنة السلامة والأمن توصياتها مع مجلس إدارة OpenAI بأكمله. بعد مراجعة المجلس، ستشارك OpenAI تحديثًا علنيًا بشأن التوصيات المعتمدة بطريقة تتماشى مع السلامة والأمن.

يأتي هذا الإجراء من قبل OpenAI وسط المخاوف التي أثارها أعضاء المجلس السابقون بشأن أولوية الشركة للسلامة والأمن. يثير تشكيل هذه اللجنة الداخلية أسئلة حول استقلاليتها وقدرتها على توفير إشراف ذي مغزى، نظرًا لمشاركة الرئيس التنفيذي سام ألتمان وقيادة OpenAI الأخرى. سيراقب الجمهور عن كثب ما إذا كانت هذه اللجنة ستؤدي إلى تغييرات جوهرية في نهج OpenAI تجاه سلامة الذكاء الاصطناعي.

التعليمات