Распаковка спорных мер безопасности ИИ OpenAI

Распаковка спорных мер безопасности ИИ OpenAI - от защиты весов модели до аппаратной подписи, это глубокое погружение исследует последствия для разработки открытого ИИ и малых компаний.

14 февраля 2025 г.

party-gif

Раскройте силу искусственного интеллекта, чтобы превратить ваш контент в захватывающие шедевры. Эта статья исследует последние меры безопасности OpenAI для передовых систем искусственного интеллекта, предлагая глубокое осмысление будущего инфраструктуры искусственного интеллекта и важности моделей с открытым исходным кодом.

Доверенные вычисления для ускорителей ИИ: защита весов модели и данных вывода

Эмерджентные технологии шифрования и аппаратной безопасности, такие как конфиденциальные вычисления, предлагают возможность защиты весов модели и данных вывода путем расширения примитивов доверенных вычислений за пределы хоста ЦП и в ускорители ИИ. Этот подход имеет потенциал для достижения нескольких ключевых свойств:

  1. Криптографическая аттестация: ГПУ могут быть криптографически аттестованы на подлинность и целостность, обеспечивая, что веса модели выполняются только на авторизованном оборудовании.

  2. Зашифрованные веса модели: Веса модели могут оставаться зашифрованными до тех пор, пока они не будут размещены и загружены на ГПУ, предотвращая несанкционированный доступ.

  3. Шифрование, специфичное для ГПУ: Уникальная криптографическая идентичность ГПУ может позволить зашифровать веса модели и данные вывода для конкретных ГПУ или групп ГПУ, обеспечивая расшифровку только авторизованными сторонами.

Изоляция сети и арендатора: обеспечение устойчивой автономной работы

Воздушные разрывы часто упоминаются как важный механизм безопасности, и это не беспочвенно. Сегментация сети является мощным средством контроля, используемым для защиты чувствительных рабочих нагрузок, таких как системы управления критической инфраструктурой. Вместо этого мы отдаем приоритет гибкой изоляции сети, которая позволяет системам ИИ работать в автономном режиме, отделенным от ненадежных сетей, включая Интернет.

Описываемые нами сети должны устранять классы уязвимостей, которые могли бы позволить злоумышленнику с доступом к одному арендатору скомпрометировать веса модели, хранящиеся у другого арендатора. Это гарантирует, что конфиденциальность, целостность и доступность данных и рабочих нагрузок будут поддерживаться даже в случае потенциальных внутренних угроз или других компрометаций.

Инновации в области операционной и физической безопасности для центров обработки данных

Операционные и физические меры безопасности для центров обработки данных ИИ необходимы для обеспечения устойчивости к внутренним угрозам, которые могут скомпрометировать конфиденциальность, целостность и доступность центра обработки данных и его рабочих нагрузок. Это включает в себя:

  • Надежные средства контроля доступа и мониторинга для ограничения и аудита физического доступа к объектам центра обработки данных и критической инфраструктуре.
  • Всеобъемлющее видеонаблюдение и ведение журналов для обеспечения видимости всех действий внутри центра обработки данных.
  • Резервные системы электропитания и охлаждения для поддержания доступности в случае сбоев.
  • Безопасные процедуры утилизации и санитарной обработки выведенного из эксплуатации оборудования для предотвращения утечки данных.
  • Пломбы, устойчивые к вскрытию, и другие физические меры безопасности для обнаружения и сдерживания несанкционированных модификаций инфраструктуры.

Программы аудита и соответствия, специфичные для ИИ: защита интеллектуальной собственности

Поскольку разработчикам ИИ необходима уверенность в том, что их интеллектуальная собственность защищена при работе с поставщиками инфраструктуры, инфраструктура ИИ должна проходить аудит и соответствовать применимым стандартам безопасности. Существующие стандарты, такие как SOC 2, ISO/IEC и семейства NIST, по-прежнему будут применяться. Однако ожидается, что список будет расширяться, чтобы включить специфичные для ИИ стандарты безопасности и нормативные требования, которые решают уникальные проблемы обеспечения безопасности систем ИИ.

Эти специфичные для ИИ программы аудита и соответствия помогут обеспечить сохранение конфиденциальности, целостности и доступности данных и моделей, связанных с ИИ. Следуя этим стандартам, поставщики инфраструктуры могут продемонстрировать свою приверженность защите ценной интеллектуальной собственности своих клиентов-разработчиков ИИ. Это, в свою очередь, будет способствовать доверию и позволит разработчикам ИИ сосредоточиться на инновациях, зная, что их критические активы защищены.

ИИ для кибернетической защиты: выравнивание игрового поля против угроз

Open AI считает, что ИИ будет трансформирующим для кибернетической защиты, с потенциалом выровнять игровое поле между атакующими и защитниками. Защитники по всему миру борются с необходимостью обрабатывать и анализировать огромные объемы сигналов безопасности, необходимых для обнаружения и реагирования на угрозы их сетям. Кроме того, значительные ресурсы, необходимые для построения сложной программы безопасности, делают осмысленную кибернетическую защиту недоступной для многих организаций.

ИИ представляет возможность для расширения возможностей кибер-защитников и улучшения безопасности. ИИ можно интегрировать в рабочие процессы безопасности, чтобы ускорить работу инженеров по безопасности и снизить трудоемкость их работы. В Open AI они используют свои модели для анализа высокообъемной и чувствительной телеметрии безопасности, которая в противном случае была бы недоступна для команд человеческих аналитиков. Используя ИИ, защитники могут более эффективно обнаруживать, расследовать и реагировать на угрозы, помогая сократить разрыв с изощренными злоумышленниками.

Устойчивость, избыточность и непрерывные исследования в области безопасности

Open AI признает, что предлагаемые ими меры безопасности, вероятно, являются только началом, и что непрерывные исследования в области безопасности необходимы, учитывая быстро развивающееся состояние безопасности ИИ. Они признают, что не существует безупречных систем и идеальной безопасности.

Для решения этой проблемы Open AI акцентирует внимание на необходимости:

  1. Устойчивость: Средства контроля безопасности должны обеспечивать многоуровневую защиту, поскольку неизбежно будут обнаружены пробелы и уязвимости со временем.

  2. Избыточность: Полагаться только на одну меру безопасности недостаточно. Необходимы несколько слоев защиты, чтобы обеспечить общую устойчивость системы.

  3. Непрерывные исследования в области безопасности: Необходимы постоянные исследования для понимания того, как можно обойти предлагаемые меры безопасности, а также для выявления и устранения любых возникающих пробелов. Это включает как наступательные, так и оборонительные исследования, чтобы оставаться на шаг впереди потенциальных угроз.

Часто задаваемые вопросы