Un addetto alla sicurezza di OpenAI ha rassegnato le dimissioni dopo aver dichiarato di aver perso fiducia nell’azienda. si comporterà in modo responsabile quando lancerà l’intelligenza artificiale generale (AGI), che si presume siano in grado di superare persino gli esseri umani in diversi compiti.
Come dettagliato da Business Insider, Daniel Kokotajlo, un ricercatore di OpenAI che lavora nel team etico dell’azienda, si è dimesso lo scorso aprile alla fine dell’anno. perdendo entusiasmo per il progetto di creazione di un’IA generale.
Il ricercatore si è spinto fino a dichiarare che ha chiesto all’azienda una pausa nello sviluppo per analizzare e gestire l’impatto che questo tipo di modello potrebbe avere sulla società. Infatti, , in un post sul forumKokotajlo ha precisato di ritenere “che la maggior parte delle persone che spingono per una pausa stiano cercando di spingere contro una ‘pausa selettiva’ e per una vera pausa che si applicherebbe ai grandi laboratori che sono all’avanguardia del progresso”, e che tale ‘pausa selettiva’ finirebbe per non applicarsi alle grandi aziende, come OpenAI.
Il motivo è ovvio: le aziende di intelligenza artificiale, così come le grandi aziende che hanno anche la capacità di sviluppare modelli di IA, sono in costante competizione tra loro per lanciare nuovi prodotti di IA il prima possibile. Una pausa in OpenAI significherebbe un ritardo nello sviluppo di un’intelligenza artificiale. rispetto ad altre aziende.
OpenAI e la sua spinta a sviluppare l’IA generale.
È interessante notare che lo sviluppo dell’intelligenza artificiale generale è stato uno dei motivi principali della telenovela OpenAI e del mancato licenziamento di Sam Altman, CEO dell’azienda, in quanto il consiglio di amministrazione temeva che il dirigente avrebbe approvato il lancio di prodotti di IA molto potenti senza prima valutarne le conseguenze.
In relazione a ciò, diversi dirigenti ed esperti di IA, tra cui Elon Musk, hanno chiesto una pausa nello sviluppo e nell’addestramento di nuovi modelli di IA.A fino a quando non avranno valutato se possano effettivamente avere un impatto negativo sulla società. L’obiettivo della pausa, che dovrebbe durare sei mesi, è quello di creare una serie di protocolli di sicurezza condivisi.
Per il momento nessuna azienda ha presentato un modello generale di IA che minacci l’umanità, anche se si sa che OpenAI ci sta lavorando con un’IA battezzata internamente Q* (Q-Star), che è persino in grado di eseguire operazioni matematiche.