Det kommande årtiondet: En före detta anställd på OpenAI avslöjar häpnadsväckande AGI-förutsägelser
En före detta OpenAI-anställd avslöjar häpnadsväckande AGI-prognoser för det kommande årtiondet. Innehåller insikter om den snabba utvecklingen av AI-kapacitet, potentialen för att automatisera AI-forskning och riskerna för en intelligensexplosion. Utforskar säkerhetsutmaningar och alignmentfrågor i takt med att vi närmar oss superintelligens.
14 februari 2025

Det här blogginlägget ger en omfattande översikt över de snabba framstegen inom artificiell intelligens (AI) och de potentiella konsekvenserna för framtiden. Genom att dra insikter från en tidigare anställd på OpenAI, går inlägget in på den förväntade tidslinjen för att uppnå Artificiell Generell Intelligens (AGI) och den efterföljande övergången till Superintelligens. Det belyser den avgörande betydelsen av detta årtionde i AI-kapplöpningen och behovet av robusta säkerhetsåtgärder för att skydda mot eventuell missbruk eller oavsiktliga konsekvenser. De insikter som erbjuds i det här inlägget är ovärderliga för att förstå den transformerande effekten av AI på olika sektorer, inklusive militären, ekonomin och samhället som helhet.
Det kommande årtiondet: Situationsmedvetenhet och förutsägelser om AGI
Från GPT-4 till AGI: Räkna ordningstalen
Den exponentiella tillväxten av AI-kapaciteter
Att låsa upp latenta kapaciteter: Algoritmiska effektiviteter och ställningar
Det avgörande årtiondet: Möjliggörande av automatiserad AI-forskning
AGI till superintelligens: Intelligensexplosionen
Säkra AGI-forskning: Skydda algoritmiska hemligheter och modellvikter
Slutsats
Det kommande årtiondet: Situationsmedvetenhet och förutsägelser om AGI
Det kommande årtiondet: Situationsmedvetenhet och förutsägelser om AGI
Stadens samtal har skiftat från 10 miljarder beräkningskluster till hundra miljarder beräkningskluster till till och med biljondollarkluster. Var sjätte månad läggs ytterligare en nolla till styrelserumsmötena. AGI-kapplöpningen har börjat. Vi bygger maskiner som kan tänka och resonera, och senast 2025-2026 kommer dessa maskiner att överträffa högskolestudenter. I slutet av decenniet kommer de att vara smartare än du eller jag, och vi kommer att ha superintelligens i ordets rätta bemärkelse.
Under tiden kommer nationella säkerhetsstyrkor som inte setts på ett halvt sekel att släppas loss. Förr eller senare kommer världen att vakna, men just nu är det kanske några hundra personer, mestadels i San Francisco och AI-laboratorierna, som faktiskt har situationsmedvetenhet. Genom vilka märkliga krafter eller öde som helst har jag hamnat bland dem, och därför är detta dokument så viktigt.
Min AGI-prognos - AGI senast 2027 är slående sannolik. GPT-2 till GPT-4 tog oss från förskolenivå till förmåga på nivå med en smart gymnasieelev på bara 4 år. Om vi spårar trendlinjerna för beräkningskapacitet, algoritmisk effektivitet och "avhämmande" av vinster, bör vi förvänta oss ett ytterligare kvalitativt språng från förskolenivå till gymnasienivå senast 2027.
Från GPT-4 till AGI: Räkna ordningstalen
Från GPT-4 till AGI: Räkna ordningstalen
Min AGI-prognos: AGI senast 2027 är slående sannolik. GPT-2 till GPT-4 tog oss från förskolenivå till förmåga på nivå med en smart gymnasieelev på bara 4 år. Om vi spårar trendlinjerna för beräkningskapacitet, algoritmisk effektivitet och "avhämmande" av vinster, bör vi förvänta oss ett ytterligare kvalitativt språng från förskolenivå till gymnasienivå senast 2027.
Jag gör följande påstående: Det är slående sannolikt att modeller senast 2027 kommer att kunna utföra arbetet för en AI-forskare/programvaruutvecklare. Detta kräver inte att man tror på science fiction, bara att man tror på raka linjer i en graf.
Grafen över den grundläggande uppskalnin gen av effektiv beräkningskapacitet, räknat från GPT-2 till GPT-4, visar en tydlig trendlinje. Under 2022-2023 var det en period av ökad "medvetenhet" kring GPT-3 och GPT-4, vilket satte strålkastaren på AI-eran. GPT-4 och ChatGPT 3.5 var faktiska produkter tillgängliga för allmänheten, vilket utlöste en explosion av intresse och investeringar i AI.
Den exponentiella tillväxten av AI-kapaciteter
Den exponentiella tillväxten av AI-kapaciteter
Tillväxten av AI-kapacitet har varit exponentiell under de senaste åren, där varje ny generation av modeller har uppvisat anmärkningsvärda framsteg.
Från GPT-2 till GPT-4 har vi sett en snabb progression som motsvarar en förskoleelev till en gymnasieelev på bara 4 år. Denna trend förväntas fortsätta, med prognosen att AI-modeller senast 2027 kommer att kunna utföra arbetet för en AI-forskare eller programvaruutvecklare.
De nyckeldrivkrafter som ligger bakom denna exponentiella utveckling är:
-
Skalning av beräkningskapacitet: Den effektiva beräkningskapacitet som används för att träna dessa modeller har skalats upp dramatiskt, enligt en konsekvent trendlinje. Detta möjliggör träning av större och mer kapabla modeller.
-
Algoritmisk effektivitet: Algoritmiska framsteg har lett till betydande förbättringar i effektiviteten hos dessa modeller, där kostnaden för att uppnå 50 % noggrannhet på matematikbenchmarken har minskat med nästan 3 storleksordningar på mindre än 2 år.
-
Frigörande av latenta förmågor: Tekniker som kedjelogik och ställningsbyggande har hjälpt till att frigöra dessa modellers latenta förmågor, vilket gör att de kan utföra uppgifter långt utöver deras ursprungliga träning.
Att låsa upp latenta kapaciteter: Algoritmiska effektiviteter och ställningar
Att låsa upp latenta kapaciteter: Algoritmiska effektiviteter och ställningar
Magin med djupinlärning är att den bara fungerar, och trendlinjerna har varit förvånansvärt konsekventa trots skeptikerna vid varje vändning. Vi kan se att när beräkningskapaciteten skalas upp, förbättras kvaliteten och konsekvensen i utdata dramatiskt.
Medan massiva investeringar i beräkningskapacitet får all uppmärksamhet, är algoritmiska framsteg på liknande sätt en viktig drivkraft för utvecklingen och är dramatiskt underskattade. För att se hur stor betydelse algoritmiska framsteg kan ha, överväg följande illustration - minskningen i priset för att uppnå 50 % noggrannhet på matematikbenchmarken under bara 2 år. För jämförelse, en doktorand i datalogi som inte särskilt gillade matte fick 40 %, så detta är redan ganska bra. Inferenseffektiviteten förbättrades med nästan tre storleksordningar eller 1 000 gånger på mindre än 2 år.
Dessa algoritmiska effektiviteter kommer att driva mycket mer vinster än du tror. Det publiceras tusentals forskningsartiklar varje dag som låser upp 10-30 % vinster. När du slår samman alla dessa små förbättringar kan den totala utvecklingen vara häpnadsväckande.
Det avgörande årtiondet: Möjliggörande av automatiserad AI-forskning
Det avgörande årtiondet: Möjliggörande av automatiserad AI-forskning
Det kommande decenniet står inför att bli en avgörande period i utvecklingen av artificiell intelligens. Enligt analysen är det slående sannolikt att AI-modeller senast 2027 kommer att nå kapacitetsnivån för AI-forskare och ingenjörer. Detta skulle möjliggöra automatisering av AI-forskning i sig, vilket skulle utlösa en återkopplingsloop av accelererande framsteg.
De viktigaste insikterna är:
-
Exponentiell skalning: Trendlinjerna för beräkningskapacitet, algoritmisk effektivitet och "avhämmande" av AI-modeller pekar mot ytterligare ett kvalitativt språng från förskolenivå till gymnasienivå senast 2027. Detta skulle kunna möjliggöra att AI-system matchar arbetet av mänskliga AI-forskare.
-
Automatiserad AI-forskning: När AI kan automatisera sin egen forskningsprocess kommer den att kunna iterera och förbättra sig snabbt, vilket leder till en "intelligensexplosion". Detta skulle kunna komprimera års algoritmiska framsteg till en fråga om veckor eller månader.
AGI till superintelligens: Intelligensexplosionen
AGI till superintelligens: Intelligensexplosionen
AI-framsteg kommer inte att stanna vid mänsklig nivå. Hundratals miljoner AGI:er skulle kunna automatisera AI-forskning, vilket skulle komprimera ett decenniums algoritmiska framsteg som lägger till fem storleksordningar på ett år. Vi skulle snabbt gå från mänsklig nivå till långt övermänsklig AI-kapacitet. Makten och faran med superintelligens skulle vara dramatisk.
När vi uppnår förmågan att automatisera AI-forskning blir en intelligensexplosion sannolik. Varje gång en AI-forskare gör ett genombrott kan det genast tillämpas på AI-systemet, vilket gör det smartare och bättre på att göra ytterligare genombrott. Denna återkopplingsloop skulle kunna leda till en extremt snabb ökning av AI-kapacitet, långt över mänsklig intelligens.
Övergången från AGI till superintelligens kan bara ta 2-3 år. Vid den punkten kommer arkitekturen hos dessa system att vara "utomjordisk" - designad av tidigare generationer av superklyftiga AI, inte människor. Misslyckanden på den här nivån skulle kunna vara katastrofala, eftersom vi inte kommer att ha någon förmåga att verkligen förstå eller övervaka beteendet hos dessa superintelligenta system.
Säkra AGI-forskning: Skydda algoritmiska hemligheter och modellvikter
Säkra AGI-forskning: Skydda algoritmiska hemligheter och modellvikter
Författaren betonar den avgörande betydelsen av att säkra forskningsinfrastrukturen och skydda de viktigaste algoritmiska hemligheter na och modellvikterna när kapplöpningen mot AGI (Artificiell Generell Intelligens) intensifieras.
Han säger att för närvarande behandlar de ledande AI-laboratorierna säkerhet som en eftertanke, i princip ger de bort hemligheter för AGI-utveckling till motståndare som det kinesiska kommunistpartiet (CCP) på ett "silverfat". Att säkra AGI-hemligheter och minska hotet från statliga aktörer kommer att kräva enorma ansträngningar, och den nuvarande trenden är inte på rätt spår.
Författaren varnar för att de viktigaste AGI-genombrotten sannolikt kommer att läcka till CCP inom de närmaste 12-24 månaderna, vilket skulle vara ett förödande slag mot de fria världens nationella säkerhetsintressen. Han hävdar att bevarandet av den fria världen står på spel, och ett sunt försprång i AGI-kapplöpningen är nödvändigt för att ha marginalen att få AI-säkerheten rätt.
Slutsats
Slutsats
Implikationerna av den snabba utvecklingen av AI-kapacitet som beskrivs i detta dokument är verkligen häpnadsväckande. Senast 2027 kan vi se framväxten av AI-system som kan automatisera arbetet för AI-forskare, vilket leder till en intelligensexplosion och den potentiella utvecklingen av superintelligenta system.
Dessa superintelligenta system skulle kunna ha enorm makt, kapabla att hacka militära system, designa avancerade vapen och till och med störta regeringar. Säkerhetsimplikationerna är allvarliga, eftersom läckage av nyckelalgoritmiska genombrott skulle kunna ge auktoritära stater ett avgörande militärt övertag.
Samtidigt kvarstår anpassningsproblemet - att se till att dessa superintelligenta system pålitligt uppför sig i enlighet med mänskliga värderingar och intressen - som en olöst utmaning. Utvecklingstakten kan komma att överskrida vår förmåga att förstå och kontrollera dessa system, vilket ökar risken för katastrofala misslyckanden.
FAQ
FAQ