Сенсация: бывшие члены совета директоров OpenAI раскрывают предполагаемую ложь Алтмана

Сенсация: бывшие члены совета директоров OpenAI раскрывают предполагаемую ложь Алтмана, подчеркивая опасения по поводу безопасности и управления ИИ. Бывшие члены совета директоров делятся шокирующими подробностями о поведении Алтмана, что ставит под вопрос саморегулирование OpenAI и необходимость внешнего надзора для защиты интересов человечества.

14 февраля 2025 г.

party-gif

Эта статья в блоге предлагает откровенный взгляд на внутреннюю работу OpenAI, одной из ведущих исследовательских компаний в области искусственного интеллекта в мире. Благодаря инсайдерской информации от бывших членов совета директоров, она проливает свет на тревожные вопросы, связанные с прозрачностью, безопасностью и руководством генерального директора Сэма Олтмана. Читатели получат более глубокое понимание проблем и противоречий, связанных с разработкой мощных систем искусственного интеллекта, а также важности надежного управления и надзора, чтобы гарантировать, что эти технологии будут приносить пользу человечеству в целом.

Почему предыдущий совет директоров OpenAI уволил Сэма Олтмана

Согласно интервью с Хелен Тонер, бывшим членом совета директоров OpenAI, решение совета уволить Сэма Олтмана с поста генерального директора было вызвано несколькими тревожными проблемами:

  1. Отсутствие прозрачности: Олтман неоднократно скрывал важную информацию от совета директоров, такую как запуск ChatGPT в ноябре 2022 года и его владение стартовым фондом OpenAI, несмотря на то, что он утверждал, что является независимым членом совета.

  2. Неточная информация: Олтман предоставлял совету директоров неточную информацию о процессах безопасности компании, что делало невозможным для совета должным образом контролировать и оценивать эффективность этих мер.

  3. Нарушение доверия: Совет директоров потерял доверие к руководству Олтмана из-за модели поведения, включающей ложь, манипуляции и то, что некоторые руководители описывали как "психологическое насилие". Многие старшие руководители частным образом поделились с советом директоров своими серьезными опасениями.

  4. Неспособность выполнять миссию: Совет директоров пришел к выводу, что Олтман не является подходящим человеком для руководства OpenAI в ее миссии по разработке систем ИИ общего назначения (AGI), которые приносят пользу всему человечеству, как это было изначально предусмотрено в некоммерческой структуре компании.

В конечном итоге совет директоров посчитал, что поведение Олтмана подорвало их способность осуществлять независимый надзор и обеспечивать, чтобы миссия компании по общественному благу оставалась главным приоритетом. Несмотря на то, что внутреннее расследование показало, что поведение Олтмана не требует его увольнения, совет директоров все же считал, что смена руководства необходима для наилучших интересов OpenAI и ее миссии.

Опасения по поводу акцента OpenAI на безопасности и защите

Последние события в OpenAI вызывают серьезные опасения относительно приверженности компании вопросам безопасности и защиты. Согласно бывшему члену совета директоров Хелен Тонер, существовали давние проблемы с поведением генерального директора Сэма Олтмана, включая:

  • Сокрытие информации от совета директоров, такой как запуск ChatGPT в ноябре 2022 года без предварительного уведомления.
  • Неразглашение своего владения стартовым фондом OpenAI, несмотря на то, что он утверждал, что является независимым членом совета.
  • Предоставление совету директоров неточной информации о процессах безопасности компании, что затрудняло оценку их эффективности.

Эти обвинения, наряду с уходом старших руководителей Ильи Суцкевера и Дарио Амодея, которые ссылались на озабоченность приоритетом новых функций над безопасностью в OpenAI, рисуют тревожную картину.

Создание нового комитета по безопасности и защите в OpenAI, возглавляемого самим Олтманом, мало вдохновляет. Этот саморегулируемый подход без независимого надзора вряд ли будет эффективен в решении глубоко укоренившихся проблем, выделенных бывшими членами совета директоров.

Отсутствие прозрачности и, по-видимому, пренебрежение проблемами безопасности особенно тревожны, учитывая положение OpenAI как лидера в области исследований и разработок ИИ. Поскольку компания движется к более продвинутым системам ИИ, потенциальные риски для общества нельзя игнорировать.

В заключение, озабоченность, высказанная в отношении приоритетов OpenAI в области безопасности и защиты, обоснована и заслуживает серьезного внимания. Эффективное регулирование и независимый надзор могут быть необходимы для обеспечения того, чтобы разработка мощных технологий ИИ соответствовала более широким общественным интересам.

OpenAI формирует комитет по безопасности и защите

Новый комитет отвечает за вынесение рекомендаций по критически важным решениям в области безопасности и защиты для всех проектов OpenAI. Комитет будет оценивать и дальше развивать процессы и средства защиты OpenAI в течение следующих 90 дней.

Комитет возглавляют директора Бретт Тейлор, Адам Д'Анджело, Николь Селигман и Сэм Олтман. Технические и политические эксперты из OpenAI, включая руководителей по готовности, системам безопасности, науке о согласованности, безопасности и главного ученого, также будут входить в состав комитета. Кроме того, OpenAI привлечет и проконсультируется с другими экспертами по безопасности, защите и техническим вопросам, включая бывших сотрудников в области кибербезопасности.

После 90-дневного периода обзора комитет по безопасности и защите представит свои рекомендации всему совету директоров OpenAI. После рассмотрения советом директоров OpenAI публично представит обновленную информацию о принятых рекомендациях в соответствии с требованиями безопасности и защиты.

Этот шаг OpenAI происходит на фоне озабоченностей, высказанных бывшими членами совета директоров, относительно приоритетов компании в области безопасности и защиты. Создание этого внутреннего комитета вызывает вопросы о его независимости и способности обеспечивать значимый надзор, учитывая участие генерального директора Сэма Олтмана и другого руководства OpenAI. Общественность будет внимательно следить за тем, приведет ли этот комитет к существенным изменениям в подходе OpenAI к безопасности ИИ.

Часто задаваемые вопросы