Il cofondatore di OpenAI Ilya Sutskever annuncia una startup di AI sicura

Ilya Sutskevercofondatore ed ex scienziato capo di OpenAI, ha annunciato la creazione di una nuova società di intelligenza artificiale. Safe Superintelligence è un nuovo laboratorio di intelligenza artificiale formato da Sutskever, Daniel Levy – ex ricercatore di OpenAI – e dall’investitore Daniel Gross. La società mira a sviluppare una superintelligenza sicurasenza pressioni o fini commerciali.

“La costruzione di una superintelligenza sicura (SSI) è il problema tecnico più importante del nostro tempo, hanno citato Ilya Sutskever e soci. “Abbiamo lanciato il primo laboratorio SSI al mondo, con un solo obiettivo e un solo prodotto: la superintelligenza sicura. Si chiama Safe Superintelligence Inc.”.

Secondo Sutskever, il nome, la missione e l’intera scheda prodotto dell’azienda hanno un unico obiettivo. A differenza di OpenAI, Safe Superintelligence ha allineato il modello di business al raggiungimento di questo obiettivo, in modo tale che non ci saranno distrazioni dovute a spese generali di gestione o a cicli di prodotto.. “Il nostro modello significa che la sicurezza, la protezione e il progresso sono isolati dalle pressioni commerciali a breve termine”, hanno dichiarato.

Ilya Sutskever vuole sviluppare un’intelligenza artificiale che non minacci l’umanità

Ilya Sutskever, Sam Altman, Greg Brockman e Mira MuratiIlya Sutskever, Sam Altman, Greg Brockman e Mira Murati
Lultimo saluto di Sutskever ai suoi colleghi di OpenAI

L’idea di un’intelligenza artificiale sicura è stata nella mente di Sutskever e di altri ricercatori. L’ex scienziato capo aveva già creato un team per studiare i sistemi di superintelligenza nell’ambito di OpenAI., il che ha portato a un attrito con Sam Altman. Ilya Sutskever era preoccupato che i modelli linguistici come GPT-4 e GPT-5 sarebbero diventati insicuri a causa dell’approccio commerciale, il che ha portato a una rivolta contro il suo CEO.

Dopo la debacle del novembre 2023, Sutskever si è ritirato dalla sfera pubblica e ha mantenuto un basso profilo. basso profilo fino a poche settimane fa, quando ha annunciato di voler lasciare l’OpenAI.

LEGGI  Meta presenta Llama 3.2, la sua AI open source in grado di comprendere le immagini

“Dopo quasi un decennio, ho preso la decisione di lasciare OpenAI. Il bilancio dell’azienda è stato a dir poco miracoloso e sono fiducioso che OpenAI creerà un’intelligenza artificiale sicura e vantaggiosa sotto la guida di Sam, Greg, Mira e ora, sotto l’eccellente guida di ricerca di Jakub Pachocki”.

La superintelligenza è alla nostra portata: Sutskever

Intelligenza artificiale Ex MachinaIntelligenza artificiale di Ex Machina

Con Safe SuperIntelligence, Ilya Sutskever e i suoi partner saranno in grado di fare ciò che hanno sempre voluto fare in OpenAI: sviluppare un’intelligenza artificiale superpotente senza mettere a rischio la razza umana. L’azienda ha dichiarato affronterà insieme la sicurezza e le capacitàcome problemi tecnici da risolvere con progressi ingegneristici e scientifici all’avanguardia.

“Abbiamo in programma di migliorare le capacità il più rapidamente possibile, garantendo al contempo che la nostra sicurezza sia sempre in primo piano. In questo modo, saremo in grado di scalare in tutta tranquillità”, hanno dichiarato.

Safe SuperIntelligence è nella sua prima fase e ha invitato altri ingegneri e scienziati a farne parte, affermando che contribuiranno a risolvere “la sfida tecnica più importante della nostra epoca”.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *