Het ontrafelen van de controversiële 'veiligheidsmaatregelen' van OpenAI's AI
Het uitpakken van de controversiële 'beveiligingsmaatregelen' van OpenAI - van het beschermen van modelgewichten tot hardwaresignering, deze diepgaande duik verkent de implicaties voor open-source AI-ontwikkeling en kleine bedrijven.
24 februari 2025

Ontgrendel de kracht van AI om uw content om te zetten in boeiende meesterwerken. Deze blogpost onderzoekt de nieuwste beveiligingsmaatregelen van OpenAI voor geavanceerde AI, en biedt een prikkelend perspectief op de toekomst van de AI-infrastructuur en het belang van open-source modellen.
Betrouwbare computing voor AI-versnellers: bescherming van modelgewichten en inferentiegegevens
Netwerk- en huurder-isolatie: zorgen voor veerkrachtige offline-werking
Innovatie in operationele en fysieke beveiliging voor datacenters
AI-specifieke audit- en complianceprogramma's: bescherming van intellectueel eigendom
AI voor cyberdefensie: het speelveld tegen bedreigingen gelijktrekken
Veerkracht, redundantie en continue beveiligingsonderzoek
Betrouwbare computing voor AI-versnellers: bescherming van modelgewichten en inferentiegegevens
Betrouwbare computing voor AI-versnellers: bescherming van modelgewichten en inferentiegegevens
Opkomende encryptie- en hardwareveiligheidstechnologieën zoals vertrouwelijke computing bieden de belofte van het beschermen van modelgewichten en inferentiegegevens door vertrouwde computingprimitieven uit te breiden voorbij de CPU-host en naar AI-accelerators. Deze aanpak heeft de potentie om verschillende sleutelkenmerken te bereiken:
-
Cryptografische Attestatie: GPU's kunnen cryptografisch worden geattesteerd op authenticiteit en integriteit, waardoor ervoor wordt gezorgd dat modelgewichten alleen op geautoriseerde hardware worden uitgevoerd.
-
Geëncrypteerde Modelgewichten: Modelgewichten kunnen versleuteld blijven totdat ze worden gestaged en geladen op de GPU, waardoor ongeautoriseerde toegang wordt voorkomen.
-
GPU-Specifieke Encryptie: De unieke cryptografische identiteit van GPU's kan ervoor zorgen dat modelgewichten en inferentiegegevens worden versleuteld voor specifieke GPU's of groepen van GPU's, waardoor decodeerbaarheid alleen door geautoriseerde partijen wordt gegarandeerd.
Deze visie van een op hardware gebaseerd vertrouwensmodel heeft als doel een veilige basis te bieden voor geavanceerde AI-systemen, waarbij modelgewichten en gevoelige gegevens worden beschermd, zelfs tegen mogelijke compromissen van de softwarestack of netwerkinfrastructuur. Deze aanpak roept echter ook zorgen op over de mogelijke toename van toetredingsdrempels en verminderde openheid in het AI-ecosysteem.
Netwerk- en huurder-isolatie: zorgen voor veerkrachtige offline-werking
Netwerk- en huurder-isolatie: zorgen voor veerkrachtige offline-werking
Air gaps worden vaak aangehaald als een essentieel beveiligingsmechanisme, en dit is niet ongegrond. Netwerksegmentatie is een krachtige controle die wordt gebruikt om gevoelige werkbelastingen zoals de besturingssystemen voor kritieke infrastructuur te beschermen. In plaats daarvan prioriteren we flexibele netwerkisolatie die AI-systemen in staat stelt offline te werken, gescheiden van niet-vertrouwde netwerken, inclusief het internet.
De netwerken die we beschrijven, moeten klassen van kwetsbaarheden elimineren die een dreigende actor met toegang tot één huurder in staat zouden stellen modelgewichten die in een andere huurder zijn opgeslagen, te compromitteren. Dit zorgt ervoor dat de vertrouwelijkheid, integriteit en beschikbaarheid van de gegevens en werkbelastingen worden gehandhaafd, zelfs in het geval van mogelijke interne bedreigingen of andere compromissen.
Door AI-infrastructuur te ontwerpen met robuuste netwerk- en huurder-isolatie, kunnen we AI-systemen in staat stellen op een veerkrachtige, offline manier te opereren, waardoor het aanvalsoppervlak wordt verkleind en de gevoelige modelgewichten die de kern vormen van deze geavanceerde AI-mogelijkheden, worden beschermd.
Innovatie in operationele en fysieke beveiliging voor datacenters
Innovatie in operationele en fysieke beveiliging voor datacenters
Operationele en fysieke beveiligingsmaatregelen voor AI-datacenters zijn noodzakelijk om veerkracht te garanderen tegen interne bedreigingen die de vertrouwelijkheid, integriteit en beschikbaarheid van het datacenter en de werkbelastingen ervan kunnen compromitteren. Dit omvat:
- Robuuste toegangscontroles en monitoring om fysieke toegang tot de datacentervoorzieningen en kritieke infrastructuur te beperken en te controleren.
- Uitgebreide videobewaking en logging om inzicht te bieden in alle activiteiten binnen het datacenter.
- Redundante stroom- en koelsystemen om de beschikbaarheid te handhaven in geval van verstoringen.
- Veilige verwijdering en sanitatieprocedures voor buiten gebruik gestelde hardware om gegevenslekken te voorkomen.
- Verzegelde bewijzen en andere fysieke beveiligingsmaatregelen om ongeautoriseerde wijzigingen aan de infrastructuur te detecteren en af te schrikken.
- Strikte personeelsveiligheidspraktijken, zoals achtergrondcontroles en bewustwordingstraining op het gebied van veiligheid, om datacentermedewerkers te screenen en te monitoren.
- Incidentrespons- en noodplannen om snel beveiligingsincidenten of uitval te identificeren, beheersen en te herstellen.
Deze operationele en fysieke beveiligingscontroles werken samen om een meerlaags verdedigingssysteem te creëren dat de vertrouwelijkheid en integriteit van de datacenteromgeving beschermt, inclusief de AI-modellen en trainingsgegevens die erin worden ondergebracht.
AI-specifieke audit- en complianceprogramma's: bescherming van intellectueel eigendom
AI-specifieke audit- en complianceprogramma's: bescherming van intellectueel eigendom
Aangezien AI-ontwikkelaars de garantie nodig hebben dat hun intellectuele eigendom wordt beschermd wanneer ze samenwerken met infrastructuurproviders, moet de AI-infrastructuur worden gecontroleerd op en voldoen aan de toepasselijke beveiligingsnormen. Bestaande normen zoals SOC 2, ISO/IEC en NIST-families zullen nog steeds van toepassing zijn. De lijst zal echter naar verwachting groeien om AI-specifieke beveiligings- en regelgevingsnormen op te nemen die de unieke uitdagingen van het beveiligen van AI-systemen aanpakken.
Deze AI-specifieke audit- en complianceprogramma's zullen helpen garanderen dat de vertrouwelijkheid, integriteit en beschikbaarheid van AI-gerelateerde gegevens en modellen worden gehandhaafd. Door zich aan deze normen te houden, kunnen infrastructuurproviders hun toewijding aan de bescherming van de waardevolle intellectuele eigendom van hun AI-ontwikkelaarklanten aantonen. Dit zal op zijn beurt het vertrouwen bevorderen en AI-ontwikkelaars in staat stellen zich te concentreren op innovatie, wetende dat hun kritieke activa worden beschermd.
De ontwikkeling van deze AI-specifieke normen zal samenwerking vereisen tussen industrie, academia en regelgevende instanties. Deze gezamenlijke inspanning zal helpen bij het opzetten van een robuust kader voor het beveiligen van het AI-ecosysteem, waarbij de snelle vooruitgang in AI-technologie gepaard gaat met passende beveiligingsmaatregelen en nalevingsmaatregelen.
AI voor cyberdefensie: het speelveld tegen bedreigingen gelijktrekken
AI voor cyberdefensie: het speelveld tegen bedreigingen gelijktrekken
Open AI gelooft dat AI transformatief zal zijn voor cyberverdediging, met de potentie om het speelveld tussen aanvallers en verdedigers gelijk te trekken. Verdedigers over de hele wereld worstelen om de enorme hoeveelheden beveiligingssignalen op te nemen en te analyseren die nodig zijn om bedreigingen voor hun netwerken te detecteren en erop te reageren. Bovendien plaatsen de aanzienlijke middelen die nodig zijn om een geavanceerd beveiligingsprogramma op te bouwen, betekenisvolle cyberverdediging buiten bereik voor veel organisaties.
AI biedt een kans om cyberverdedigers in staat te stellen en de beveiliging te verbeteren. AI kan worden opgenomen in beveiligingsworkflows om beveiligingsingenieurs te versnellen en de last in hun werk te verminderen. Bij Open AI gebruiken ze hun modellen om hoogvolume- en gevoelige beveiligingstelemetrie te analyseren die anders buiten bereik zou zijn voor teams van menselijke analisten. Door gebruik te maken van AI kunnen verdedigers bedreigingen effectiever detecteren, onderzoeken en erop reageren, waardoor de kloof met geavanceerde aanvallers kan worden gedicht.
Open AI is toegewijd aan het vooruitbrengen van de staat van de kunst in AI-aangedreven cyberverdediging. Ze geloven dat voortdurend beveiligingsonderzoek, inclusief het verkennen van manieren om de beveiligingsmaatregelen die ze hebben geschetst, te omzeilen, essentieel is om voorop te blijven lopen in het snel evoluerende bedreigingslandschap. Uiteindelijk moeten deze op AI gebaseerde beveiligingscontroles dieptebeveiliging bieden, aangezien er geen foutloze systemen en geen perfecte beveiliging zijn.
Veerkracht, redundantie en continue beveiligingsonderzoek
Veerkracht, redundantie en continue beveiligingsonderzoek
Open AI erkent dat de beveiligingsmaatregelen die ze voorstellen waarschijnlijk slechts het begin zijn, en dat voortdurend beveiligingsonderzoek vereist is gezien de snel evoluerende staat van AI-beveiliging. Ze erkennen dat er geen foutloze systemen en geen perfecte beveiliging zijn.
Om dit aan te pakken, benadrukt Open AI de noodzaak van:
-
Veerkracht: De beveiligingscontroles moeten dieptebeveiliging bieden, aangezien er onvermijdelijk lacunes en kwetsbaarheden zullen worden ontdekt in de loop van de tijd.
-
Redundantie: Vertrouwen op één beveiligingsmaatregel is niet genoeg. Meerdere beschermingslagen zijn noodzakelijk om de algehele veerkracht van het systeem te garanderen.
-
Voortdurend Beveiligingsonderzoek: Voortdurend onderzoek is vereist om te begrijpen hoe de voorgestelde beveiligingsmaatregelen kunnen worden omzeild, evenals om eventuele opkomende lacunes te identificeren en te dichten. Dit omvat zowel offensief als defensief onderzoek om voorop te blijven lopen op mogelijke bedreigingen.
Open AI erkent dat het veld van AI-beveiliging nog in een vroeg stadium verkeert, en dat een proactieve en adaptieve aanpak noodzakelijk is om geavanceerde AI-systemen te beschermen. Door veerkracht, redundantie en voortdurend beveiligingsonderzoek te omarmen, streven ze ernaar voorop te blijven lopen in het evoluerende bedreigingslandschap en de veiligheid van hun AI-infrastructuur te garanderen.
FAQ
FAQ