ChatGPT ha già un’alternativa open source, anche se il suo utilizzo non è così semplice come si potrebbe pensare.

ChatGPT ne ha già uno alternativa open source che si comporterebbe in modo simile all’intelligenza artificiale sviluppata da OpenAI. Conosciuto come PaLM + RLHFQuesta intelligenza artificiale è opera di Philip Wang, uno sviluppatore che ha combinato il Pathways Language Model (PaLM) di Google con il reinforcement learning from human feedback (RLHF). Il risultato è un’intelligenza artificiale che potrebbe, in teoria, eseguire compiti simili a quelli svolti da ChatGPT.

In termini generali, questa intelligenza artificiale è un’implementazione di RLHF in cima all’architettura PaLM.. Il modello linguistico sviluppato da Google è stato addestrato utilizzando un set di dati multilingue di alta qualità che comprende libri, documenti, voci di Wikipedia e codice GitHub. Il PaLM è in grado di eseguire ragionamenti aritmetici, spiegare barzellette o indovinare il film da un’emoji.

PaLM + RLHF sarebbe in grado di prevedere le parole utilizzando il set di dati e il feedback umano.. RLHF, presente in ChatGPT, utilizza un modello linguistico precedentemente addestrato e mira ad allinearlo ai risultati che gli utenti si aspettano. Ciò è possibile grazie a un modello di ricompensa che definisce il modo in cui le preferenze umane sono integrate in un sistema.

Il ChatGPT open source richiede milioni di dollari per funzionare.

PaLM potrebbe superare GPT-3, tuttavia, prima di entusiasmarvi per questa variante open source e correre a scaricarla, dovreste sapere qualcosa. Il sistema non è ancora stato formatoquindi non è in grado di stabilire una conversazione con l’utente come ChatGPT. Secondo il suo creatore, PaLM + RLHF è soltanto la nave e una mappa generaleperché Sono necessari milioni di dollari in calcoli e dati. per navigare verso il punto giusto in uno spazio di parametri ad alta densità.

LEGGI  Questa intelligenza artificiale permette di trasformare chiunque si possa immaginare in un Pokémon.

Quando Wang parla di milioni di dollari non scherza. Secondo uno studio pubblicato dalla Cornell University, la formazione di un modello da 1,5 miliardi di parametri costerebbe 1,6 milioni di dollari.

Bloom, un modello open-source che ha un numero di parametri simile a quello di GPT-3, ha richiesto tre mesi di addestramento usando 384 schede NVIDIA A1000, ciascuna con un valore stimato di 32.200 dollari.. Come riferimento, PaLM ha 540 miliardi di parametri.

Philip Wang afferma che anche con l’imbarcazione e la mappa in mano – come definisce PaLM + RLHF – è comunque necessario marittimi professionisti per guidarla in porto. Altri esperti sostengono che non è solo necessario disporre di un hardware potente, ma anche di un’infrastruttura e di un software adeguati. in grado di svolgere il compito formativo.

In ogni caso, se siete interessati a saperne di più su PaLM + RLHF potete accedere al repository GitHub.

Guida ai regali di Natale 2022

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *