AI-krachtmeting in Silicon Valley: ontwikkelaars sprakeloos door ingrijpende nieuwe regelgeving
Bereid je voor op een AI-crackdown in Silicon Valley, aangezien nieuwe verstrekkende regelgeving dreigt de ontwikkeling van AI te verstoren. Ontdek de 10 meest waanzinnige dingen over deze autoritaire technologiewetgeving die het Overton-venster zou kunnen dichtslaan.
23 februari 2025

In deze blogpost ontdek je de schokkende details van een voorgesteld AI-beleid dat de technologie-industrie in rep en roer heeft gebracht. Bereid je voor op een blik in de toekomst van AI-regulering en de mogelijke impact op ontwikkelaars en innovators. Deze inzichtelijke analyse zal je doen nadenken over de balans tussen technologische vooruitgang en overheidscontrole.
Potentiële Risico's van Geavanceerde AI-Systemen
AI-Tiereringssysteem: Flops-Benchmarks vs. Mogelijkheden
Verplichte Rapportage en Monitoring van AI-Ontwikkeling
Strikte Veiligheidseisen voor Hoogrisico-AI
Vrijstellingen voor Smalle AI-Toepassingen
Overheidstoezicht en Noodmaatregelen
Bescherming voor Klokkenluiders
Potentiële Risico's van Geavanceerde AI-Systemen
Potentiële Risico's van Geavanceerde AI-Systemen
Het voorgestelde AI-beleid belicht verschillende belangrijke zorgen met betrekking tot de mogelijke risico's van geavanceerde AI-systemen:
-
Existentiële en catastrofale risico's: Het beleid definieert een "groot veiligheidsrisico" als elk existentieel of wereldwijd catastrofaal risico dat iedereen op de planeet kan schaden, zoals AI-systemen die zelfvermenigvuldigende autonome agenten opzetten of permanent aan menselijke controle ontsnappen.
-
Prestatienormen versus rekenkracht-normen: Het beleid suggereert het gebruik van op rekenkracht gebaseerde normen (bijv. FLOPS) om AI-systemen in risicocategorieën in te delen. De voorstelling erkent echter dat deze aanpak mogelijk niet de werkelijke mogelijkheden van AI-systemen nauwkeurig weergeeft, aangezien efficiëntieverbeteringen kunnen leiden tot meer capabele modellen met minder rekenkracht.
-
Vroeg stoppen met training: Het beleid stelt voor dat AI-systemen van middelgroot belang regelmatig moeten worden getest op prestaties, en dat de training moet worden gestopt als het systeem onverwacht hoge mogelijkheden vertoont. Dit zou de ontwikkeling van geavanceerde AI-systemen kunnen vertragen.
-
Bepalen van AI met extreem hoog belang: Het beleid vereist de ontwikkeling van normen om AI-systemen te identificeren die kunnen helpen bij de ontwikkeling van wapens, de mondiale machtsverhoudingen kunnen destabiliseren of andere catastrofale risico's kunnen opleveren. Het definiëren van deze normen binnen een termijn van 12 maanden kan een uitdaging zijn gezien het snelle tempo van de AI-vooruitgang.
-
Hardwaremonitoring: Het beleid bevat een vereiste om de aankoop, verkoop en het gebruik van high-performance hardware (bijv. GPU's) voor AI-ontwikkeling te melden, wat kan leiden tot een toegenomen overheidstoezicht en beperkingen op de toegang tot dergelijke hardware.
-
Voorzienbaarheid van schade: Het beleid stelt dat ontwikkelaars de "verrassing" van de onbetrouwbaarheid van een AI-systeem niet als een geldige verdediging kunnen gebruiken, aangezien zij hadden moeten weten dat grensverleggende AI-systemen een breed scala aan ernstige risico's opleveren, waarvan sommige mogelijk niet vooraf detecteerbaar zijn.
-
Noodmaatregelen: Het beleid verleent de president en een beheerder de bevoegdheid om de noodtoestand uit te roepen en vergaande bevoegdheden op te leggen, waaronder de vernietiging van AI-hardware, het verwijderen van modelgewichten en de fysieke inbeslagname van AI-laboratoria, als reactie op waargenomen grote veiligheidsrisico's.
-
Bescherming voor klokkenluiders: Het beleid biedt bescherming voor klokkenluiders die praktijken verboden door de AI-wet melden of weigeren eraan deel te nemen, zelfs als hun overtuigingen over de schendingen uiteindelijk onjuist blijken te zijn.
AI-Tiereringssysteem: Flops-Benchmarks vs. Mogelijkheden
AI-Tiereringssysteem: Flops-Benchmarks vs. Mogelijkheden
Het voorgestelde AI-beleid definieert vier categorieën van AI-systemen op basis van hun rekenkrachtvereisten:
- Categorie 1 (AI met laag belang): AI-systemen getraind op minder dan 10^24 FLOPS
- Categorie 2 (AI met middelgroot belang): AI-systemen getraind op 10^24 tot 10^26 FLOPS
- Categorie 3 (AI met hoog belang): AI-systemen getraind op meer dan 10^26 FLOPS
- Categorie 4 (AI met extreem hoog belang): AI-systemen met mogelijkheden die catastrofale risico's kunnen opleveren
Deze aanpak om AI-systemen op basis van FLOPS-drempels in te delen, is echter problematisch. Zoals opgemerkt, vertaalt rekenkracht (FLOPS) zich niet rechtstreeks naar de mogelijkheden van een AI-systeem. Factoren zoals modelarchitectuur, trainingsdata en optimalisatietechnieken kunnen de mogelijkheden van een AI-systeem aanzienlijk beïnvloeden, onafhankelijk van de rekenkrachtvereisten.
De beleidsvoorstelling houdt geen rekening met de snelle vooruitgang in AI-efficiëntie, waarbij kleinere en compactere modellen vergelijkbare of zelfs betere prestaties kunnen leveren dan grotere, meer rekenkracht-intensieve modellen. Voorbeelden zoals LLaMA en Flan-T5 laten zien dat rekenkracht-efficiënte AI-systemen aanzienlijke mogelijkheden kunnen bezitten.
AI reguleren op basis van alleen FLOPS-drempels riskeert het creëren van een inflexibel en mogelijk ineffectief kader. In plaats daarvan zou het beleid zich moeten richten op het ontwikkelen van robuuste en aanpasbare normen die de mogelijkheden van AI-systemen, inclusief hun potentiële risico's en veiligheidskwesties, rechtstreeks beoordelen. Dit zou een nauwkeuriger en toekomstbestendiger aanpak bieden voor het categoriseren en besturen van AI-technologieën.
Verplichte Rapportage en Monitoring van AI-Ontwikkeling
Verplichte Rapportage en Monitoring van AI-Ontwikkeling
Het voorgestelde beleid bevat enkele zorgwekkende bepalingen met betrekking tot de regulering en monitoring van AI-ontwikkeling:
-
Het definieert een "groot veiligheidsrisico" als elk existentieel of catastrofaal risico, bedreigingen voor kritieke infrastructuur, nationale veiligheid of openbare veiligheid, evenals het risico dat AI-systemen zelfvermenigvuldigende autonome agenten opzetten of permanent aan menselijke controle ontsnappen.
-
Het stelt een gelaagd systeem in voor het classificeren van AI-systemen op basis van hun berekende FLOPS (drijvende-komma-bewerkingen per seconde), waarbij de krachtigste systemen (>10^26 FLOPS) als "extreem hoog belang" worden beschouwd. Deze aanpak is echter gebrekkig, aangezien rekenkracht alleen niet de mogelijkheden of risico's van een AI-systeem bepaalt.
-
Voor "middelgroot belang" AI-systemen zou het beleid maandelijkse prestatiemetingen en rapportage aan de overheid vereisen, waarbij de training moet worden gestopt als het systeem "onverwacht hoge" prestaties vertoont. Dit zou kunnen leiden tot onderrapportage of het omzeilen van het systeem.
-
Het beleid verleent de overheid vergaande noodbevoegdheden, waaronder de mogelijkheid om AI-hardware te vernietigen, modelgewichten te verwijderen en fysiek AI-laboratoria in beslag te nemen - zelfs als de specifieke risico's "verrassingen" waren voor de ontwikkelaars. Dit zou een ernstig afkoelend effect kunnen hebben op AI-onderzoek en -ontwikkeling.
-
Het beleid bevat bescherming voor klokkenluiders, wat positief is, maar zelfs als een klokkenluider zich vergist over een overtreding, zouden ze nog steeds beschermd zijn tegen vergelding.
Strikte Veiligheidseisen voor Hoogrisico-AI
Strikte Veiligheidseisen voor Hoogrisico-AI
Het voorstel bevat een bepaling voor een "snelle track" vrijstellingsformulier waarmee AI-ontwikkelaars die geen grote veiligheidsrisico's opleveren, door kunnen gaan met hun werk, zelfs als hun AI-systemen technisch gezien als "grensverleggend" worden beschouwd.
De administratie wordt opgedragen een tweepagina-formulier te ontwerpen waarmee AI-tools zoals zelfrijdende auto's, fraudedetectiesystemen en aanbevelingsmotoren kunnen blijven functioneren zonder te hoeven deelnemen aan de rest van het in het voorstel beschreven regelgevingskader.
Deze vrijstelling voor smalle AI-toepassingen lijkt een redelijke aanpak te zijn, waarbij wordt erkend dat veel AI-aangedreven systemen minimale risico's opleveren en niet overmatig belast zouden moeten worden door dezelfde regelgeving die bedoeld is voor krachtigere en mogelijk gevaarlijkere AI-systemen.
Vrijstellingen voor Smalle AI-Toepassingen
Vrijstellingen voor Smalle AI-Toepassingen
Iedereen die zich uitspreekt tegen, meldt of weigert deel te nemen aan een door de AI-wet verboden praktijk, kan in aanmerking komen als klokkenluider. Zelfs als een klokkenluider het mis heeft, worden ze nog steeds beschermd zolang ze een redelijk goede geloofsovertuiging hadden dat de AI-wet werd overtreden.
FAQ
FAQ