Uppackning av OpenAI:s kontroversiella AI-'säkerhetsåtgärder'

Uppackning av OpenAI:s kontroversiella AI-'säkerhetsåtgärder' - från att skydda modellvikter till hårdvaruskrivning, denna djupdykning utforskar implikationerna för öppen källkod AI-utveckling och små företag.

15 februari 2025

party-gif

Lås upp kraften i AI för att förvandla ditt innehåll till fängslande mästerverk. Den här blogginlägget utforskar OpenAIs senaste säkerhetsåtgärder för avancerad AI och erbjuder en tankeväckande perspektiv på framtiden för AI-infrastruktur och vikten av öppna källkodmodeller.

Betrodd datoranvändning för AI-acceleratorer: Skydd av modellvikter och inferensdata

Emergande krypteringsteknik och hårdvaruskyddsteknik som konfidentiell databehandling erbjuder löftet om att skydda modellvikter och inferensdata genom att utöka betrodda beräkningsprimitiver bortom CPU-värden och in i AI-acceleratorer. Denna metod har potential att uppnå flera nyckelegenskaper:

  1. Kryptografisk attestering: GPU:er kan kryptografiskt attesteras för äkthet och integritet, vilket säkerställer att modellvikter endast körs på auktoriserad hårdvara.

  2. Krypterade modellvikter: Modellvikter kan förbli krypterade tills de ställs in och laddas på GPU:n, vilket förhindrar obehörig åtkomst.

  3. GPU-specifik kryptering: Den unika kryptografiska identiteten hos GPU:er kan möjliggöra att modellvikter och inferensdata krypteras för specifika GPU:er eller GPU-grupper, vilket säkerställer att endast auktoriserade parter kan avkryptera dem.

Nätverks- och hyresgästisolering: Säkerställa motståndskraftig offlineverksamhet

Air gaps anges ofta som en väsentlig säkerhetsmekanism, och detta är inte obefogat. Nätverkssegmentering är en kraftfull kontroll som används för att skydda känsliga arbetsbelastningar som kontrollsystem för kritisk infrastruktur. I stället prioriterar vi flexibel nätverksisolering som gör det möjligt för AI-system att arbeta offline, linjeisolerade från otillförlitliga nätverk inklusive internet.

De nätverk vi beskriver måste eliminera klasser av sårbarheter som skulle kunna tillåta en angripare med åtkomst till en hyresgäst att kompromettera modellvikter som lagras i en annan hyresgäst. Detta säkerställer att konfidentialiteten, integriteten och tillgängligheten för data och arbetsbelastningar upprätthålls, även vid potentiella interna hot eller andra kompromisser.

Innovation inom operativ och fysisk säkerhet för datacenter

Drifts- och fysiska säkerhetsåtgärder för AI-datacenter är nödvändiga för att säkerställa motståndskraft mot interna hot som kan kompromettera konfidentialiteten, integriteten och tillgängligheten för datacentret och dess arbetsbelastningar. Detta inkluderar:

  • Robusta åtkomstkontroller och övervakning för att begränsa och granska fysisk åtkomst till datacentrets anläggningar och kritisk infrastruktur.
  • Omfattande videoövervakning och loggning för att ge insyn i alla aktiviteter inom datacentret.
  • Redundanta kraft- och kylsystem för att upprätthålla tillgängligheten vid störningar.
  • Säkra bortskaffnings- och sanerings-rutiner för avvecklad hårdvara för att förhindra dataläckage.
  • Förseglingar som visar tecken på manipulering och andra fysiska säkerhetsåtgärder för att upptäcka och avskräcka obehöriga ändringar av infrastrukturen.
  • Rigorös personalsäkerhetspraxis, såsom bakgrundskontroller och säkerhetsutbildning, för att granska och övervaka datacenterpersonal.
  • Incidenthantering och katastrofåterställningsplaner för att snabbt identifiera, begränsa och återhämta sig från säkerhetsincidenter eller avbrott.

AI-specifika gransknings- och efterlevnadsprogram: Skydd av immateriella rättigheter

Da AI-utvecklare behöver försäkran om att deras immateriella egendom skyddas när de arbetar med infrastrukturleverantörer, måste AI-infrastrukturen granskas för och vara kompatibel med tillämpliga säkerhetsstandarder. Befintliga standarder som SOC 2, ISO/IEC och NIST-familjer kommer fortfarande att gälla. Listan förväntas dock växa för att inkludera AI-specifika säkerhets- och reglerande standarder som hanterar de unika utmaningarna med att säkra AI-system.

Dessa AI-specifika gransknings- och efterlevnadsprogram kommer att hjälpa till att säkerställa att konfidentialiteten, integriteten och tillgängligheten för AI-relaterade data och modeller upprätthålls. Genom att följa dessa standarder kan infrastrukturleverantörer visa sitt engagemang för att skydda den värdefulla immateriella egendomen hos sina AI-utvecklarkunder. Detta i sin tur kommer att främja förtroende och göra det möjligt för AI-utvecklare att fokusera på innovation, med vetskap om att deras kritiska tillgångar är skyddade.

AI för cybersäkerhet: Jämna ut spelplanen mot hot

Open AI tror att AI kommer att vara transformerande för cybersäkerhet, med potential att jämna ut spelplanen mellan angripare och försvarare. Försvarare över hela världen kämpar med att ta in och analysera de enorma mängder säkerhetssignaler som behövs för att upptäcka och reagera på hot mot deras nätverk. Dessutom gör de betydande resurser som krävs för att bygga ett sofistikerat säkerhetsprogram meningsfull cybersäkerhet ouppnåelig för många organisationer.

AI erbjuder en möjlighet att möjliggöra cyberforsvarare och förbättra säkerheten. AI kan införlivas i säkerhetsarbetsflöden för att accelerera säkerhetsingenjörer och minska slöseriet i deras arbete. På Open AI använder de sina modeller för att analysera högvolyms- och känslig säkerhetstelemetri som annars skulle ligga utom räckhåll för team av mänskliga analytiker. Genom att utnyttja AI kan försvarare mer effektivt upptäcka, utreda och reagera på hot, vilket hjälper till att stänga gapet med sofistikerade angripare.

Open AI är engagerade i att driva utvecklingen av AI-driven cybersäkerhet framåt. De tror att fortsatt säkerhetsforskning, inklusive att utforska sätt att kringgå de säkerhetsåtgärder de har skisserat, är avgörande för att ligga steget före den snabbt utvecklande hotbilden. I slutändan måste dessa AI-drivna säkerhetskontroller ge djupförsvar, eftersom det inte finns några felfria system och ingen perfekt säkerhet.

FAQ