OpenAI vuole controllare l'intelligenza artificiale

OpenAI forma un nuovo team per il controllo delle IA superintelligenti

OpenAI ha annunciato di aver formato un nuovo team guidato da Ilya Sutskever, uno dei co-fondatori dell’azienda e capo scienziato, con l’obiettivo di sviluppare nuovi modi per controllare sistemi d’IA superintelligenti.

Sviluppare sistemi di controllo per IA superintelligenti

L’annuncio è stato fatto attraverso un post sul blog ufficiale di OpenAI, in cui Sutskever e Jan Leike prevedono che l’IA con un’intelligenza superiore a quella umana potrebbe essere una realtà entro un decennio. Gli scienziati spiegano che questa forma di intelligenza artificiale potrebbe non essere benevola e che sarà necessario sviluppare sistemi per controllarla e limitarla.

“Attualmente non abbiamo una soluzione per guidare o controllare un’IA potenzialmente superintelligente e prevenire che diventi malevola”, afferma OpenAI. “Le attuali tecniche di allineamento dell’IA, come l’apprendimento per rinforzo basato sul feedback umano, si basano sulla capacità degli esseri umani di supervisionare l’IA. Ma gli esseri umani non saranno in grado di supervisionare in modo affidabile sistemi di intelligenza artificiale molto più intelligenti di noi”.

Il nuovo team sarà composto da scienziati e ingegneri che in precedenza facevano parte di un’altra divisione di allineamento dell’azienda, nonché da ricercatori provenienti da altre aree societarie. Insieme, si concentreranno nel risolvere le principali sfide tecniche legate al controllo dell’IA entro una scadenza di quattro anni. Sutskever e Leike avranno l’obiettivo di addestrare sistemi di intelligenza artificiale utilizzando il feedback umano e di sviluppare un’IA in grado di valutare altri sistemi di intelligenza artificiale. Inoltre, lavoreranno per sviluppare un’IA che possa svolgere ricerche sull’allineamento. OpenAI dedicherà a questo team il 20% delle sue risorse di calcolo attualmente disponibili.

Con questa iniziativa, OpenAI cerca di affrontare le sfide e le preoccupazioni legate al potenziale sviluppo di IA superintelligenti, riconoscendo la necessità di sviluppare strumenti e meccanismi di controllo adeguati. L’obiettivo è garantire che l’IA rimanga sicura e al servizio dell’umanità, evitando potenziali rischi derivanti da un utilizzo non controllato o malevolo di tali tecnologie avanzate.

Giovanni Damiano

Giovanni Damiano