Ilya Sutskevercofondatore ed ex scienziato capo di OpenAI, ha annunciato la creazione di una nuova società di intelligenza artificiale. Safe Superintelligence è un nuovo laboratorio di intelligenza artificiale formato da Sutskever, Daniel Levy – ex ricercatore di OpenAI – e dall’investitore Daniel Gross. La società mira a sviluppare una superintelligenza sicurasenza pressioni o fini commerciali.
“La costruzione di una superintelligenza sicura (SSI) è il problema tecnico più importante del nostro tempo, hanno citato Ilya Sutskever e soci. “Abbiamo lanciato il primo laboratorio SSI al mondo, con un solo obiettivo e un solo prodotto: la superintelligenza sicura. Si chiama Safe Superintelligence Inc.”.
Secondo Sutskever, il nome, la missione e l’intera scheda prodotto dell’azienda hanno un unico obiettivo. A differenza di OpenAI, Safe Superintelligence ha allineato il modello di business al raggiungimento di questo obiettivo, in modo tale che non ci saranno distrazioni dovute a spese generali di gestione o a cicli di prodotto.. “Il nostro modello significa che la sicurezza, la protezione e il progresso sono isolati dalle pressioni commerciali a breve termine”, hanno dichiarato.
Ilya Sutskever vuole sviluppare un’intelligenza artificiale che non minacci l’umanità
L’idea di un’intelligenza artificiale sicura è stata nella mente di Sutskever e di altri ricercatori. L’ex scienziato capo aveva già creato un team per studiare i sistemi di superintelligenza nell’ambito di OpenAI., il che ha portato a un attrito con Sam Altman. Ilya Sutskever era preoccupato che i modelli linguistici come GPT-4 e GPT-5 sarebbero diventati insicuri a causa dell’approccio commerciale, il che ha portato a una rivolta contro il suo CEO.
Dopo la debacle del novembre 2023, Sutskever si è ritirato dalla sfera pubblica e ha mantenuto un basso profilo. basso profilo fino a poche settimane fa, quando ha annunciato di voler lasciare l’OpenAI.
“Dopo quasi un decennio, ho preso la decisione di lasciare OpenAI. Il bilancio dell’azienda è stato a dir poco miracoloso e sono fiducioso che OpenAI creerà un’intelligenza artificiale sicura e vantaggiosa sotto la guida di Sam, Greg, Mira e ora, sotto l’eccellente guida di ricerca di Jakub Pachocki”.
La superintelligenza è alla nostra portata: Sutskever
Con Safe SuperIntelligence, Ilya Sutskever e i suoi partner saranno in grado di fare ciò che hanno sempre voluto fare in OpenAI: sviluppare un’intelligenza artificiale superpotente senza mettere a rischio la razza umana. L’azienda ha dichiarato affronterà insieme la sicurezza e le capacitàcome problemi tecnici da risolvere con progressi ingegneristici e scientifici all’avanguardia.
“Abbiamo in programma di migliorare le capacità il più rapidamente possibile, garantendo al contempo che la nostra sicurezza sia sempre in primo piano. In questo modo, saremo in grado di scalare in tutta tranquillità”, hanno dichiarato.
Safe SuperIntelligence è nella sua prima fase e ha invitato altri ingegneri e scienziati a farne parte, affermando che contribuiranno a risolvere “la sfida tecnica più importante della nostra epoca”.