OpenAI fornisce nuovi dettagli su GPT-5 e annuncia un comitato per la sicurezza

OpenAI ha annunciato la formazione di un nuovo comitato di sicurezza che avrà il compito di formulare raccomandazioni sui punti critici relativi a quest’area, sia in termini di progetti che di funzionamento della startup stessa. Inoltre, la società ha confermato un’informazione chiave su GPT-5il suo tanto atteso prossimo modello di intelligenza artificiale.

Per quanto riguarda il GPT-5, OpenAI ha rivelato di aver già iniziato ad addestrarlo.. Anche se l’azienda guidata da Sam Altman non ne fa il nome specifico, è chiaro che si sta riferendo a questa IA.

“OpenAI ha recentemente iniziato ad addestrare il suo modello di prossima frontiera e prevediamo che i sistemi risultanti ci porteranno al livello successivo di capacità nel nostro percorso verso l’intelligenza artificiale generale”, afferma l’azienda.

Che cos’è un modello di frontiera o modello di frontiera? Stiamo parlando di un modello di apprendimento automatico su larga scala che supera le capacità dei modelli più avanzati oggi disponibili. e in grado di svolgere un’ampia varietà di compiti. Così lo definisce il Frontier Model Forum, un organismo composto da Google, Anthropic, Microsoft e la stessa OpenAI con l’intento di autoregolamentarsi. E se consideriamo le recenti dichiarazioni di Sam Altman sui suoi progressi, è chiaro che GPT-5 rientra in questa categoria.

Il leader di OpenAI non ha esitato a riconoscere che GPT-4 sarà considerato un modello di IA “stupido” quando il suo successore raggiungerà il pubblico. E ha affermato che la principale virtù di GPT-5 e delle tecnologie successive sarà quella di diventare sempre più intelligenti. Sembra un’affermazione troppo semplicistica, ma Altman la considera fondamentale per il futuro.

LEGGI  Il rivale del ChatGPT Claude sbarca in Spagna

“Credo che la cosa più importante del GPT-5, o comunque lo chiameremo, sia che diventerà sempre più intelligente. Credo che una delle cose più straordinarie nella storia dell’umanità sia che possiamo fare qualcosa e dire subito, con un alto grado di certezza scientifica, che il GPT-5 sarà molto più intelligente del GPT-4.. E il GPT-6 sarà molto più intelligente del GPT-5, e non siamo neanche lontanamente vicini alla cima di questa curva”, ha dichiarato l’imprenditore.

OpenAI ha iniziato l’addestramento del GPT-5.

GPT-5 | OpenAIGPT-5 | OpenAI
Foto di <a href=httpsunsplashcomesandrewtneelutm content=creditCopyTextutm medium=referralutm source=unsplash>Andrew Neel<a> a <a href=httpsunsplashcomesfotosel logotipo de open ai se muestra en la pantalla de una computadora hZkOZGtlA5wutm content=creditCopyTextutm medium=referralutm source=unsplash>Unsplash<a>

La conferma che OpenAI sta già addestrando GPT-5 è interessante, anche se crea alcune contraddizioni con i rapporti precedenti. Secondo quanto trapelato nei mesi precedenti, l’intenzione della startup era di annunciare il nuovo modello di intelligenza artificiale quest’estate. Ma il lavoro di addestramento è iniziato solo di recente, sembra improbabile che vedremo questa tecnologia nel prossimo futuro..

Non dimentichiamo che, dopo l’addestramento e l’ottimizzazione, i nuovi modelli di IA passano attraverso il processo di red teaming. Ciò significa che la tecnologia viene sottoposta a rigorosi test di affidabilità e sicurezza. Si tratta di compiti che richiedono molto tempo. E considerando le critiche che OpenAI ha ricevuto ultimamente, non è certo il caso di prenderle alla leggera.

Al di là del riferimento implicito al GPT-5, i californiani hanno usato la formazione del loro nuovo comitato per dimostrare che sono impegnati nello sviluppo sicuro dei loro modelli e prodotti. Giorni fa, l’azienda ha perso Jan Leikeleader del team incaricato di affrontare i rischi a lungo termine dell’IA. Il suddetto ha pubblicato un thread su X (Twitter) in cui rimprovera la direzione che OpenAI ha preso sotto Sam Altman. “Negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti più brillanti”, ha affermato.

LEGGI  Xiaomi 14 Ultra trapela in versione integrale ed è una bestia assoluta

Sam Altman e Greg Brockman hanno rilasciato una dichiarazione congiunta che alludeva a tale affermazione, e il comitato di sicurezza ora annunciato cercherà ora di portare la pace della mente all’interno e all’esterno della startup. Questo gruppo sarà composto da membri del consiglio di amministrazione di OpenAI (Sam Altman, Adam D’Angelo, Nicole Seligman e Bret Taylor) e dagli esperti tecnici e politici Aleksander Madry, John Schulman, Matt Knight, Jakub Pachocki e Lilian Weng. Il comitato si consulterà anche con gli esperti di sicurezza informatica John Carlin e Rob Joyce.

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *