L’umanità potrebbe creare un’Intelligenza Artificiale (IA) che è tanto intelligente quanto gli esseri umani entro i prossimi tre anni, ha affermato un eminente scienziato.
Ben Goertzel, un informatico e CEO di SingularityNET, ha fatto questa affermazione durante le conclusioni del Beneficial AGI Summit 2024 il 1° marzo a Panama City, Panama. È conosciuto come il “padre dell’AGI” dopo aver contribuito a rendere popolare il termine intelligenza artificiale generale (AGI) nei primi anni 2000.
L’IA sta per fare un nuovo passo verso una forma perfetta
I migliori sistemi di IA attualmente in uso sono considerati “IA stretta” perché potrebbero essere più capaci degli esseri umani in un’area, basandosi sui dati di addestramento, ma non possono superare gli esseri umani in modo più generale. Questi sistemi di IA stretta, che vanno dagli algoritmi di apprendimento automatico ai grandi modelli linguistici (LLM) come ChatGPT, faticano a ragionare come gli esseri umani e a comprendere il contesto.
Tuttavia, Goertzel ha osservato che la ricerca sull’IA sta entrando in un periodo di crescita esponenziale, e le prove suggeriscono che l’intelligenza artificiale generale (AGI) – dove l’IA diventa tanto capace quanto gli esseri umani in diverse aree indipendentemente dai dati di addestramento originali – è a portata di mano. Questo punto ipotetico nello sviluppo dell’IA è noto come “singolarità”.
Goertzel ha suggerito che il 2029 o il 2030 potrebbero essere gli anni più probabili in cui l’umanità costruirà il primo agente AGI, ma che potrebbe accadere già nel 2027. Se un tale agente è progettato per avere accesso e riscrivere il proprio codice, potrebbe evolversi molto rapidamente in un’intelligenza artificiale superiore (ASI) – che Goertzel ha definito approssimativamente come un’IA che ha il potere cognitivo e di calcolo di tutta la civiltà umana combinata.
“Nessuno ha ancora creato un’intelligenza artificiale generale di livello umano; nessuno ha una conoscenza solida di quando ci arriveremo. Voglio dire, ci sono incognite note e probabilmente incognite ignote. D’altra parte, mi sembra piuttosto plausibile che possiamo arrivare all’AGI di livello umano entro, diciamo, i prossimi tre otto anni”, ha detto Goertzel.
Ha indicato “tre linee di prove convergenti” per supportare la sua tesi. La prima è la modellazione dello scienziato informatico Ray Kurzweil nel libro “La singolarità è vicina” (Viking USA, 2005), che è stata perfezionata nel suo prossimo libro “La singolarità è più vicina” (Bodley Head, giugno 2024). Nel suo libro, Kurzweil ha costruito modelli predittivi che suggeriscono che l’AGI sarà raggiungibile nel 2029, basandosi principalmente sulla natura esponenziale della crescita tecnologica in altri campi.
Goertzel ha anche indicato miglioramenti apportati ai LLM nei suoi pochi anni, che hanno “risvegliato così tanto del mondo al potenziale dell’IA”. Ha chiarito che i LLM in sé non porteranno all’AGI perché il modo in cui mostrano la conoscenza non rappresenta una comprensione genuina, ma che i LLM possono essere un componente in un ampio insieme di architetture interconnesse.
Il terzo elemento di prova, ha detto Goertzel, è nel suo lavoro nella costruzione di un’infrastruttura del genere, che ha chiamato “OpenCog Hyperon“, oltre a sistemi software associati e un prossimo linguaggio di programmazione AGI, denominato “MeTTa“, per supportarlo.
OpenCog Hyperon è una forma di infrastruttura AI che coinvolge l’assemblaggio di paradigmi AI esistenti e nuovi, incluso LLM come un componente. Il punto finale ipotetico è una rete distribuita su larga scala di sistemi AI basati su architetture diverse che ciascuna aiutano a rappresentare diversi elementi della cognizione umana – dalla generazione di contenuti al ragionamento.
Tale approccio è un modello che altri ricercatori di IA hanno sostenuto, incluso il CTO di Databricks Matei Zaharia in un post sul blog che ha co-scritto il 18 febbraio sul sito web della Berkeley Artificial Intelligence Research (BAIR). Goertzel ha ammesso, tuttavia, che “potrebbe sbagliarsi” e che potremmo aver bisogno di un “computer quantistico con un milione di qubit o qualcosa del genere”.
“La mia opinione personale è che una volta raggiunto l’AGI di livello umano, entro pochi anni si potrebbe ottenere un AGI radicalmente superiore all’umano – a meno che l’AGI minacci di bloccare il proprio sviluppo per propria conservazione”, ha aggiunto Goertzel. “Penso che una volta che un AGI può introspezionare la propria mente, allora può fare ingegneria e scienza a livello umano o superumano. Dovrebbe essere in grado di creare un AGI più intelligente, quindi un AGI ancora più intelligente, quindi un’esplosione dell’intelligenza. Questo potrebbe portare a un aumento del tasso esponenziale al di là persino di quello che Ray [Kurzweil] pensava”.