Ужесточение контроля за ИИ в Кремниевой долине: разработчики в шоке от масштабных новых нормативных актов
Готовьтесь к жесткому регулированию ИИ в Кремниевой долине, поскольку новые всеобъемлющие нормативные акты угрожают нарушить разработку ИИ. Узнайте 10 самых безумных вещей об этом авторитарном законодательстве в сфере технологий, которое может закрыть окно Овертона.
24 февраля 2025 г.

В этом блог-посте вы узнаете шокирующие подробности предлагаемой политики в области ИИ, которая вызвала бурю возмущения в технологической индустрии. Приготовьтесь заглянуть в будущее регулирования ИИ и потенциальное влияние на разработчиков и новаторов. Этот проницательный анализ заставит вас задуматься о балансе между технологическим прогрессом и государственным контролем.
Потенциальные риски передовых систем искусственного интеллекта
Система классификации ИИ: эталонные показатели производительности против возможностей
Обязательная отчетность и мониторинг разработки ИИ
Строгие требования безопасности для ИИ, вызывающего высокую озабоченность
Исключения для узконаправленных приложений ИИ
Государственный надзор и чрезвычайные полномочия
Защита информаторов
Потенциальные риски передовых систем искусственного интеллекта
Потенциальные риски передовых систем искусственного интеллекта
Предлагаемая политика в области ИИ выделяет несколько ключевых проблем, связанных с потенциальными рисками передовых систем ИИ:
-
Экзистенциальные и катастрофические риски: Политика определяет "серьезный риск безопасности" как включающий любые экзистенциальные или глобальные катастрофические риски, которые могут нанести вред всем на планете, такие как создание самовоспроизводящихся автономных агентов ИИ или постоянный выход из-под контроля человека.
-
Показатели возможностей против показателей вычислений: Политика предлагает использовать основанные на вычислениях показатели (например, FLOPS) для категоризации систем ИИ по уровням озабоченности. Однако предложение признает, что этот подход может не точно отражать истинные возможности систем ИИ, поскольку улучшения эффективности могут приводить к более способным моделям с меньшими вычислениями.
-
Остановка ранней подготовки: Политика предлагает, чтобы системы ИИ средней степени озабоченности проходили регулярное тестирование производительности, и обучение должно быть остановлено, если система демонстрирует неожиданно высокие возможности. Это может замедлить развитие передовых систем ИИ.
-
Определение ИИ, вызывающего крайнюю озабоченность: Политика требует разработки стандартов для выявления систем ИИ, которые могут помочь в разработке оружия, дестабилизировать глобальную власть или представлять другие катастрофические риски. Определение этих стандартов в течение 12 месяцев может быть сложной задачей, учитывая быстрый темп развития ИИ.
-
Мониторинг оборудования: Политика включает требование сообщать о покупке, продаже и использовании высокопроизводительного оборудования (например, GPU) для разработки ИИ, что может привести к усилению государственного надзора и ограничений на доступ к такому оборудованию.
-
Предсказуемость вреда: Политика заявляет, что разработчики не могут использовать "неожиданность" ненадежности системы ИИ в качестве действительной защиты, поскольку они должны были знать, что передовые системы ИИ представляют широкий спектр серьезных рисков, некоторые из которых могут быть не обнаружены заранее.
-
Чрезвычайные полномочия: Политика предоставляет президенту и администратору возможность объявить чрезвычайное положение и ввести широкие полномочия, включая уничтожение оборудования ИИ, удаление весов модели и физическое изъятие лабораторий ИИ, в ответ на предполагаемые серьезные риски безопасности.
-
Защита осведомителей: Политика предоставляет защиту осведомителям, которые сообщают или отказываются участвовать в практиках, запрещенных Законом об ИИ, даже если их убеждения о нарушениях в конечном итоге окажутся неверными.
Система классификации ИИ: эталонные показатели производительности против возможностей
Система классификации ИИ: эталонные показатели производительности против возможностей
Предлагаемая политика в области ИИ определяет четыре уровня систем ИИ на основе их вычислительных требований:
- Уровень 1 (ИИ низкой степени озабоченности): Системы ИИ, обученные менее чем на 10^24 FLOPS
- Уровень 2 (ИИ средней степени озабоченности): Системы ИИ, обученные на 10^24 до 10^26 FLOPS
- Уровень 3 (ИИ высокой степени озабоченности): Системы ИИ, обученные более чем на 10^26 FLOPS
- Уровень 4 (ИИ крайне высокой степени озабоченности): Системы ИИ с возможностями, которые могут представлять катастрофические риски
Однако этот подход использования пороговых значений FLOPS для категоризации систем ИИ является проблематичным. Как отмечалось, вычислительная мощность (FLOPS) не напрямую переводится в возможности системы ИИ. Факторы, такие как архитектура модели, обучающие данные и методы оптимизации, могут значительно влиять на возможности системы ИИ, независимо от ее вычислительных требований.
Предложение политики не учитывает быстрый прогресс в эффективности ИИ, когда меньшие и более компактные модели могут достигать сопоставимой или даже превосходящей производительности по сравнению с более крупными, более вычислительно интенсивными моделями. Примеры, такие как LLaMA и Flan-T5, демонстрируют, что эффективные с точки зрения вычислений системы ИИ могут обладать значительными возможностями.
Регулирование ИИ исключительно на основе пороговых значений FLOPS создает негибкую и потенциально неэффективную структуру. Вместо этого политика должна быть сосредоточена на разработке надежных и адаптируемых эталонов, которые напрямую оценивают возможности систем ИИ, включая их потенциальные риски и соображения безопасности. Это обеспечило бы более точный и перспективный подход к категоризации и управлению технологиями ИИ.
Обязательная отчетность и мониторинг разработки ИИ
Обязательная отчетность и мониторинг разработки ИИ
Предлагаемая политика включает несколько вызывающих озабоченность положений, касающихся регулирования и мониторинга разработки ИИ:
-
Она определяет "серьезный риск безопасности" как включающий любые экзистенциальные или катастрофические риски, угрозы критической инфраструктуре, национальной безопасности или общественной безопасности, а также риск создания самовоспроизводящихся автономных агентов ИИ или постоянного выхода из-под контроля человека.
-
Она устанавливает многоуровневую систему классификации систем ИИ на основе их вычисленных FLOPS (операций с плавающей запятой в секунду), при этом самые мощные системы (>10^26 FLOPS) считаются "крайне высокой степени озабоченности". Этот подход является ошибочным, поскольку вычислительная мощность сама по себе не определяет возможности или риски системы ИИ.
-
Для систем ИИ "средней степени озабоченности" политика потребует ежемесячного тестирования производительности и отчетности перед правительством, при этом обучение должно быть остановлено, если система демонстрирует "неожиданно высокие" показатели. Это может стимулировать занижение показателей или манипулирование системой.
-
Политика предоставляет правительству широкие чрезвычайные полномочия, включая возможность уничтожать оборудование ИИ, удалять веса модели и физически изымать лаборатории ИИ - даже если конкретные риски были "неожиданностью" для разработчиков. Это может оказать серьезное сдерживающее воздействие на исследования и разработки в области ИИ.
-
Политика включает защиту осведомителей, что является положительным моментом, но даже если осведомитель ошибается в отношении нарушения, он все равно будет защищен от возмездия.
Строгие требования безопасности для ИИ, вызывающего высокую озабоченность
Строгие требования безопасности для ИИ, вызывающего высокую озабоченность
Предлагаемая политика предусматривает строгие требования безопасности для "систем ИИ высокой степени озабоченности", определяемых как системы, обученные более чем на 10^26 FLOPS. Ключевые моменты включают:
-
Разработчики должны предоставить убедительные доказательства того, что система ИИ не представляет значительной возможности катастрофических рисков, таких как способность помогать в разработке оружия массового уничтожения, автономное распространение или дестабилизация глобальной расстановки сил.
-
Это доказательство должно выходить за рамки простого доказательства того, что система в настоящее время не опасна - бремя доказывания лежит на разработчиках, чтобы исключить любые значительные будущие риски.
-
Разрешения на разработку систем ИИ высокой степени озабоченности, как правило, будут утверждаться в течение 90 дней, если вообще будут, что налагает медленный и неопределенный процесс.
-
Политика предоставляет правительству широкие чрезвычайные полномочия, включая возможность уничтожать оборудование, удалять веса модели и физически изымать лаборатории ИИ, чтобы предотвратить дальнейшую разработку.
-
Осведомители защищены, даже если их опасения по поводу нарушений безопасности ИИ в конечном итоге окажутся неверными, если у них была разумная добросовестная вера.
Исключения для узконаправленных приложений ИИ
Исключения для узконаправленных приложений ИИ
Предложение включает положение об "ускоренной форме освобождения", которое позволяет разработчикам ИИ, не представляющим серьезных рисков безопасности, продолжать свою работу, даже если их системы ИИ технически квалифицируются как "передовые".
Администрации поручено разработать двухстраничную форму, которая позволит инструментам ИИ, таким как беспилотные автомобили, системы обнаружения мошенничества и рекомендательные системы, продолжать работу без необходимости участвовать в остальной части нормативно-правовой базы, описанной в предложении.
Это освобождение для узких приложений ИИ кажется разумным подходом, признающим, что многие системы, работающие на основе ИИ, представляют минимальные риски и не должны чрезмерно обременяться теми же нормативными требованиями, которые предназначены для более мощных и потенциально опасных систем ИИ.
Государственный надзор и чрезвычайные полномочия
Государственный надзор и чрезвычайные полномочия
Предлагаемая политика в области ИИ включает несколько вызывающих озабоченность положений, которые предоставляют правительству широкие полномочия по регулированию и ограничению разработки ИИ:
-
Политика очень широко определяет "серьезные риски безопасности", включая любые экзистенциальные или катастрофические риски, угрозы критической инфраструктуре и риски выхода систем ИИ из-под контроля человека. Это расплывчатое определение может быть использовано для оправдания жестких мер вмешательства.
-
Политика устанавливает многоуровневую систему для категоризации систем ИИ на основе их вычислительной мощности, при этом более высокие уровни сталкиваются с более строгими нормативными требованиями. Однако этот подход не учитывает достижения в эффективности ИИ, которые могут позволить мощные возможности при более низких вычислительных порогах.
-
Политика требует ежемесячной отчетности о производительности и автоматической остановки обучения систем ИИ "средней степени озабоченности", если результаты превышают ожидания. Это может значительно замедлить прогресс и инновации в области ИИ.
-
Политика предоставляет правительству чрезвычайные полномочия для приостановки разрешений на ИИ, выпуска ограничительных приказов, удаления весов модели и даже физического изъятия лабораторий ИИ - все это без четких критериев или надзора. Этот авторитарный подход рискует подавить эту область.
-
Политика предоставляет защиту осведомителям, но даже если осведомитель ошибается, он все равно будет защищен от возмездия. Это может стимулировать злоупотребление системой.
Часто задаваемые вопросы
Часто задаваемые вопросы

