Il Decennio a Venire: Ex-Dipendente di OpenAI Rivela Sorprendenti Previsioni sull'AGI

Ex-dipendente di OpenAI rivela sorprendenti previsioni di AGI per il decennio a venire. Include approfondimenti sui rapidi progressi delle capacità dell'IA, il potenziale per automatizzare la ricerca sull'IA e i rischi di un'esplosione di intelligenza. Esplora le sfide di sicurezza e i problemi di allineamento man mano che ci avviciniamo alla superintelligenza.

14 febbraio 2025

party-gif

Questo post del blog fornisce una panoramica completa dei rapidi progressi dell'intelligenza artificiale (IA) e delle potenziali implicazioni per il futuro. Attingendo a spunti di un ex dipendente di OpenAI, il post approfondisce la timeline prevista per il raggiungimento dell'Intelligenza Artificiale Generale (AGI) e la successiva transizione verso la Superintelligenza. Evidenzia l'importanza cruciale di questo decennio nella corsa all'IA e la necessità di misure di sicurezza robuste per salvaguardare contro potenziali abusi o conseguenze indesiderate. Gli spunti offerti in questo post sono inestimabili per comprendere l'impatto trasformativo dell'IA su vari settori, inclusi il militare, l'economia e la società nel suo complesso.

Il decennio a venire: consapevolezza della situazione e previsioni sull'AGI

La chiacchiera della città si è spostata dai cluster di calcolo da 10 miliardi ai cluster di calcolo da centinaia di miliardi fino ai cluster da mille miliardi di dollari. Ogni 6 mesi, un altro zero viene aggiunto ai piani della sala riunioni. La corsa all'AGI è iniziata. Stiamo costruendo macchine in grado di pensare e ragionare e entro il 2025-2026 queste macchine supereranno i laureati universitari. Entro la fine del decennio, saranno più intelligenti di te o di me e avremo l'superintelligenza nel senso più vero del termine.

Nel frattempo, saranno scatenate Forze di Sicurezza Nazionale non viste da mezzo secolo. Prima o poi, il mondo si sveglierà, ma in questo momento ci sono forse poche centinaia di persone, per lo più a San Francisco e nei laboratori di IA, che in realtà hanno consapevolezza della situazione. Attraverso qualunque forza peculiare o destino, mi sono ritrovato tra loro e questo è il motivo per cui questo documento è così importante.

La mia previsione sull'AGI: l'AGI entro il 2027 è sorprendentemente plausibile. Da GPT-2 a GPT-4 siamo passati dalle capacità di un bambino in età prescolare a quelle di uno studente liceale intelligente in soli 4 anni. Se tracciamo le linee di tendenza del calcolo, delle efficienze algoritmiche e dello "sblocco" dei guadagni, dovremmo aspettarci un altro salto qualitativo dalle dimensioni di un bambino in età prescolare a uno studente liceale entro il 2027.

Affermo che è sorprendentemente plausibile che entro il 2027 i modelli saranno in grado di svolgere il lavoro di un ricercatore di IA o di un ingegnere del software. Questo non richiede di credere alla fantascienza, ma solo di credere in linee rette su un grafico. La scalabilità del calcolo effettivo da GPT-2 a GPT-4 mostra una chiara tendenza e credo che la crescita sarà ancora più ripida negli anni a venire.

I limiti degli attuali modelli si riducono a modi ovvi in cui sono ancora "zoppicanti" e artificialmente vincolati. Man mano che questi vincoli vengono rimossi, l'intelligenza grezza dietro i modelli sarà liberata, portando a progressi rapidi. Stiamo già esaurendo i benchmark, con GPT-4 che supera la maggior parte dei test di attitudine standard delle scuole superiori e universitari.

La magia dell'apprendimento profondo è che le linee di tendenza sono state sorprendentemente coerenti. Il conteggio affidabile degli ordini di grandezza nell'addestramento di questi modelli ci consente di estrapolarne i miglioramenti di capacità. Le efficienze algoritmiche e i guadagni dello "sblocco" guideranno gran parte dei progressi, portando potenzialmente a un modello di livello GPT-4 che può essere addestrato in soli un minuto entro il 2027.

Tuttavia, assicurare i segreti algoritmici e i pesi dei modelli sarà cruciale, poiché il fallimento nel farlo potrebbe portare a fughe di notizie su scoperte chiave sull'AGI agli avversari entro i prossimi 12-24 mesi. Controllare in modo affidabile i sistemi di IA molto più intelligenti degli esseri umani è un problema tecnico irrisolto e il fallimento potrebbe essere catastrofico. La transizione verso l'superintelligenza è destinata a essere rapida, con pressioni straordinarie per ottenere l'allineamento giusto.

FAQ