OpenAI fornisce nuovi dettagli su GPT-5 e annuncia un comitato per la sicurezza

OpenAI ha annunciato la formazione di un nuovo comitato di sicurezza che avrà il compito di formulare raccomandazioni sui punti critici relativi a quest’area, sia in termini di progetti che di funzionamento della startup stessa. Inoltre, la società ha confermato un’informazione chiave su GPT-5il suo tanto atteso prossimo modello di intelligenza artificiale.

Per quanto riguarda il GPT-5, OpenAI ha rivelato di aver già iniziato ad addestrarlo.. Anche se l’azienda guidata da Sam Altman non ne fa il nome specifico, è chiaro che si sta riferendo a questa IA.

“OpenAI ha recentemente iniziato ad addestrare il suo modello di prossima frontiera e prevediamo che i sistemi risultanti ci porteranno al livello successivo di capacità nel nostro percorso verso l’intelligenza artificiale generale”, afferma l’azienda.

Che cos’è un modello di frontiera o modello di frontiera? Stiamo parlando di un modello di apprendimento automatico su larga scala che supera le capacità dei modelli più avanzati oggi disponibili. e in grado di svolgere un’ampia varietà di compiti. Così lo definisce il Frontier Model Forum, un organismo composto da Google, Anthropic, Microsoft e la stessa OpenAI con l’intento di autoregolamentarsi. E se consideriamo le recenti dichiarazioni di Sam Altman sui suoi progressi, è chiaro che GPT-5 rientra in questa categoria.

Il leader di OpenAI non ha esitato a riconoscere che GPT-4 sarà considerato un modello di IA “stupido” quando il suo successore raggiungerà il pubblico. E ha affermato che la principale virtù di GPT-5 e delle tecnologie successive sarà quella di diventare sempre più intelligenti. Sembra un’affermazione troppo semplicistica, ma Altman la considera fondamentale per il futuro.

LEGGI  Ho provato i modelli Logitech MX Master 3S e MX Mechanical per Mac e i miei sospetti sono stati confermati.

“Credo che la cosa più importante del GPT-5, o comunque lo chiameremo, sia che diventerà sempre più intelligente. Credo che una delle cose più straordinarie nella storia dell’umanità sia che possiamo fare qualcosa e dire subito, con un alto grado di certezza scientifica, che il GPT-5 sarà molto più intelligente del GPT-4.. E il GPT-6 sarà molto più intelligente del GPT-5, e non siamo neanche lontanamente vicini alla cima di questa curva”, ha dichiarato l’imprenditore.

OpenAI ha iniziato l’addestramento del GPT-5.

GPT-5 | OpenAI
Foto di <a href=httpsunsplashcomesandrewtneelutm content=creditCopyTextutm medium=referralutm source=unsplash>Andrew Neel<a> a <a href=httpsunsplashcomesfotosel logotipo de open ai se muestra en la pantalla de una computadora hZkOZGtlA5wutm content=creditCopyTextutm medium=referralutm source=unsplash>Unsplash<a>

La conferma che OpenAI sta già addestrando GPT-5 è interessante, anche se crea alcune contraddizioni con i rapporti precedenti. Secondo quanto trapelato nei mesi precedenti, l’intenzione della startup era di annunciare il nuovo modello di intelligenza artificiale quest’estate. Ma il lavoro di addestramento è iniziato solo di recente, sembra improbabile che vedremo questa tecnologia nel prossimo futuro..

Non dimentichiamo che, dopo l’addestramento e l’ottimizzazione, i nuovi modelli di IA passano attraverso il processo di red teaming. Ciò significa che la tecnologia viene sottoposta a rigorosi test di affidabilità e sicurezza. Si tratta di compiti che richiedono molto tempo. E considerando le critiche che OpenAI ha ricevuto ultimamente, non è certo il caso di prenderle alla leggera.

Al di là del riferimento implicito al GPT-5, i californiani hanno usato la formazione del loro nuovo comitato per dimostrare che sono impegnati nello sviluppo sicuro dei loro modelli e prodotti. Giorni fa, l’azienda ha perso Jan Leikeleader del team incaricato di affrontare i rischi a lungo termine dell’IA. Il suddetto ha pubblicato un thread su X (Twitter) in cui rimprovera la direzione che OpenAI ha preso sotto Sam Altman. “Negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti più brillanti”, ha affermato.

LEGGI  Q-Star (Q*): la nuova IA di OpenAI che minaccia l'umanità

Sam Altman e Greg Brockman hanno rilasciato una dichiarazione congiunta che alludeva a tale affermazione, e il comitato di sicurezza ora annunciato cercherà ora di portare la pace della mente all’interno e all’esterno della startup. Questo gruppo sarà composto da membri del consiglio di amministrazione di OpenAI (Sam Altman, Adam D’Angelo, Nicole Seligman e Bret Taylor) e dagli esperti tecnici e politici Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki e Lilian Weng. Il comitato si consulterà anche con gli esperti di sicurezza informatica John Carlin e Rob Joyce.

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *