Распаковка тревожных противоречий в OpenAI: глубокое погружение
Распаковка тревожных противоречий в OpenAI: глубокое погружение в последние изменения в руководстве компании, проблемы безопасности и этические вопросы, связанные с ее передовыми языковыми моделями.
21 февраля 2025 г.

OpenAI, известная компания по искусственному интеллекту, в последнее время привлекает внимание по всем неправильным причинам. Эта статья в блоге углубляется в тревожные проблемы, окружающие компанию, от смены руководства и проблем безопасности до использования данных и этических вопросов. Узнайте о закулисной драме и растущем беспокойстве по поводу подхода OpenAI, поскольку она продолжает расширять границы технологий искусственного интеллекта.
Отсутствие осведомленности Совета о запуске ChatGPT
Опасения по поводу открытости и прозрачности в OpenAI
Роспуск команды выравнивания и новый комитет по безопасности
Опасения по поводу практики обработки данных в OpenAI и проблема Скарлетт Йоханссон
Заключение
Отсутствие осведомленности Совета о запуске ChatGPT
Отсутствие осведомленности Совета о запуске ChatGPT
По словам Хелен Тонер, бывшего члена совета директоров OpenAI, совет директоров не был заранее проинформирован о запуске ChatGPT в ноябре 2022 года. Совет, состоявший из шести членов, включая генерального директора Сэма Олтмана, президента Грега Брокмана и ведущего инженера Илью Суцкевера, узнал о запуске ChatGPT в Twitter, а не от руководства компании.
Это откровение вызывает вопросы о прозрачности и коммуникации в руководстве OpenAI. Хотя технология, лежащая в основе ChatGPT, GPT-3, уже использовалась различными компаниями, включая Jasper, тот факт, что половина совета директоров не знала о сроках запуска, свидетельствует об отсутствии координации и обмена информацией.
Аргумент о том, что ChatGPT был предназначен как исследовательский предварительный просмотр, и OpenAI не ожидала такого массового общественного отклика, дает некоторый контекст. Однако тот факт, что члены совета директоров, ответственные за надзор за деятельностью компании, были исключены из процесса, вызывает озабоченность по поводу процессов принятия решений и приоритизации безопасности и безопасности в OpenAI.
Опасения по поводу открытости и прозрачности в OpenAI
Опасения по поводу открытости и прозрачности в OpenAI
Последние события, связанные с OpenAI, вызвали серьезные опасения относительно открытости и прозрачности компании. Несколько ключевых моментов подчеркивают эти проблемы:
-
Отсутствие осведомленности совета директоров: По словам бывшего члена совета директоров Хелен Тонер, совет директоров не был заранее проинформирован о запуске ChatGPT. Это свидетельствует о тревожном отсутствии коммуникации и прозрачности между руководством и советом надзора.
-
Положения о возврате акций: Просочившиеся документы показывают, что OpenAI имела агрессивные положения о возврате акций, которые требовали от увольняющихся сотрудников подписания соглашений о неразглашении. Эта практика подвергалась критике как потенциально неэтичная и незаконная.
-
Роспуск команды выравнивания: Уход Яна, бывшего руководителя команды выравнивания в OpenAI, и последующий роспуск команды выравнивания вызывают вопросы о приверженности компании безопасности и ответственному развитию ИИ.
-
Конфликты интересов в комитете по безопасности: Создание нового комитета по безопасности и безопасности, в который входит генеральный директор Сэм Олтман, подвергалось критике как потенциальный конфликт интересов, поскольку лица, принимающие решения, могут извлекать выгоду из технологии, которую они должны оценивать.
-
Неясность источников данных: OpenAI уклончиво отвечает об источниках данных, используемых для обучения ее моделей, таких как Sora и GPT-4. Это отсутствие прозрачности вызывает опасения по поводу возможных проблем с конфиденциальностью и этикой.
-
Инцидент со Скарлетт Йоханссон: Скандал, связанный с использованием голоса, напоминающего голос Скарлетт Йоханссон, в демонстрации GPT-4, еще больше подчеркивает необходимость большей прозрачности и подотчетности в практиках OpenAI.
Роспуск команды выравнивания и новый комитет по безопасности
Роспуск команды выравнивания и новый комитет по безопасности
После того, как Ян, руководитель команды выравнивания в OpenAI, ушел со своего поста, сославшись на разногласия с приоритетами компании, OpenAI распустила команду выравнивания. Это вызвало дополнительные опасения относительно приверженности компании безопасности и ответственному развитию систем искусственного интеллекта.
В ответ OpenAI сформировала новый комитет по безопасности и безопасности, возглавляемый директорами Бреттом Тейлором, Адамом Д'Анджело, Николь Сейгман и генеральным директором Сэмом Олтманом. Этому комитету поручено давать рекомендации всему совету директоров по критически важным вопросам безопасности и безопасности для всех проектов и операций OpenAI.
Однако состав этого комитета вызвал недоумение, поскольку в него входит генеральный директор Сэм Олтман, который также отвечает за финансовые решения и запуски продуктов компании. Это вызывает потенциальные конфликты интересов, поскольку одно и то же лицо теперь курирует как разработку, так и безопасность технологий OpenAI.
Опасения по поводу практики обработки данных в OpenAI и проблема Скарлетт Йоханссон
Опасения по поводу практики обработки данных в OpenAI и проблема Скарлетт Йоханссон
Практики OpenAI в области данных подверглись критике, при этом сообщается, что компания использовала значительное количество данных YouTube для обучения своих языковых моделей, включая GPT-4. Технический директор Мира Мурати не смогла предоставить четкие детали о данных, используемых для обучения модели Sora, что вызывает опасения по поводу прозрачности.
Кроме того, компания столкнулась с юридической проблемой с актрисой Скарлетт Йоханссон, которая считала, что OpenAI использовала ее голос без разрешения для создания голосовой модели Sky для GPT-4. Хотя OpenAI утверждала, что голос не предназначался для имитации голоса Йоханссон, имеющиеся доказательства свидетельствуют об обратном, при этом генеральный директор Сэм Олтман упоминал в твите фильм "Она", в котором звучал голос Йоханссон.
Эти инциденты в сочетании с озабоченностями, высказанными бывшими сотрудниками, такими как Ян, относительно приоритизации компанией "блестящих продуктов" над безопасностью и выравниванием, еще больше подорвали общественное доверие к практикам и процессам принятия решений в OpenAI. Создание нового комитета по безопасности и безопасности, возглавляемого Олтманом и другими внутренними членами, также подвергалось критике за потенциальные конфликты интересов, поскольку рекомендации комитета могут быть подвержены влиянию финансовых интересов компании.
Заключение
Заключение
Последние события, связанные с OpenAI, вызвали серьезные опасения относительно прозрачности компании, практик безопасности и руководства. Откровения об отсутствии осведомленности совета директоров относительно запуска ChatGPT, соглашения о неразглашении с бывшими сотрудниками и потенциальные конфликты интересов в недавно созданном комитете по безопасности и безопасности - все это способствовало растущему чувству беспокойства.
Хотя OpenAI, несомненно, произвела впечатляющие технологические достижения, накапливающиеся доказательства свидетельствуют о тревожной тенденции к приоритизации разработки продуктов над ответственным управлением и мерами безопасности. Уход ключевых фигур, таких как Ян, руководитель команды выравнивания, еще больше подчеркивает внутренние разногласия и расходящиеся приоритеты в организации.
По мере быстрого развития ландшафта ИИ крайне важно, чтобы компании, такие как OpenAI, сохраняли твердую приверженность прозрачности, этическим практикам и безопасности своих технологий. Общественность заслуживает четкого и откровенного понимания данных, процессов и процессов принятия решений, стоящих за этими мощными системами искусственного интеллекта.
В дальнейшем важно, чтобы OpenAI напрямую решала эти проблемы, внедряла надежный внешний надзор и демонстрировала искреннюю приверженность ответственному развитию трансформирующих технологий ИИ. Только тогда общественное доверие к компании может быть полностью восстановлено.
Часто задаваемые вопросы
Часто задаваемые вопросы

