I ricercatori di OpenAI hanno avvertito il consiglio di amministrazione dei pericoli della sua prossima IA prima di licenziare Sam Altman

Giorni prima che Sam Altman venisse licenziato da OpenAI, i ricercatori dell’azienda hanno scritto una lettera al consiglio di amministrazione sollevando preoccupazioni sui pericoli della sua prossima IA, tra cui il fatto che essa avrebbe “potrebbe minacciare l’umanità”.ha rivelato Reuters.

Secondo i media, che hanno corroborato le informazioni con due fonti che hanno familiarità con la questione, gli investigatori hanno avvisato che Altman voleva immettere sul mercato prodotti di intelligenza artificiale molto potenti senza averne prima valutato le conseguenze.tra le altre lamentele. Questo potrebbe aver portato alla decisione del consiglio di amministrazione di licenziarlo, anche se poi è stato reintegrato. Il 17 novembre, infatti, il Consiglio di amministrazione ha confermato il licenziamento con la motivazione che aveva perso la fiducia in Sam Altman.

Uno dei prodotti che OpenAI, sotto la guida di Altman, ha voluto lanciare senza considerare quanto potesse essere dannoso per l’umanità, sembra essere un’intelligenza artificiale generale (AGI). L’azienda l’ha sviluppata attraverso un progetto interno chiamato Q* (pronunciato Q-Star).

Questa IA, in particolare, sarebbe capace di eseguire compiti autonomi sufficientemente avanzati da sostituire gli esseri umani in diversi settori.

OpenAI ha un’IA che raggiunge lo stesso livello di intelligenza di un essere umano.

I bug di ChatGPT sono comuni.

L’intelligenza artificiale sviluppata attraverso il progetto Q* si distingue per la sua capacità di risolvere problemi matematici. Per ora, però, al livello di uno studente delle elementari. Si tratta comunque di un notevole passo avanti se si considera che i modelli di intelligenza artificiale non sono così bravi in questo tipo di operazioni, ma si distinguono soprattutto per le loro capacità di scrittura, generazione di contenuti e traduzione.

LEGGI  L'albero di Natale olografico ora "funziona" con 'Doom' e ha un aspetto incredibile

Quindi, se l’intelligenza artificiale è in grado di comprendere e risolvere problemi matematici, in cui esiste una sola risposta corretta, si troverebbe più o meno allo stesso livello di intelligenza di un essere umano. Questo è un aspetto che preoccupa i ricercatori di OpenAI. Nella loro lettera al consiglio di amministrazione, infatti, avvertono di aver discusso a lungo del pericolo di un’IA così intelligente. Si chiedono anche, tra le altre cose, se questi modelli potrebbero decidere che la distruzione dell’umanità è nel loro interesse.

Secondo ReutersDiversi gruppi di lavoro concentrati sullo sviluppo di modelli di intelligenza artificiale stavano anche lavorando per migliorare le capacità dei modelli esistenti, per renderli più ragionanti e persino in grado di svolgere un lavoro scientifico.

Sam Altman era a quattro giorni da OpenAI. Ora l’azienda lo ha riassunto su pressione di dipendenti, investitori e dirigenti. Hanno avvertito che la startup non sarebbe andata da nessuna parte senza di lui. Diversi dirigenti hanno persino minacciato di andarsene da Microsoft se Altman non fosse tornato come CEO.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *