OpenAI svela un nuovo algoritmo per le sue IA che le renderà molto più facili da capire

OpenAI ha lanciato un nuovo algoritmo per comprendere meglio le sue IAe più precisamente i suoi piccoli modelli linguistici, come ChatGT, che si alimentano di altri modelli linguistici più grandi, come GPT-4, per rispondere alle domande degli utenti. L’obiettivo, secondo l’azienda, è che i modelli più deboli possano creare testi più comprensibili per l’uomo, migliorando così la leggibilità.

In un articolo pubblicato dalla stessa OpenAI e intitolato “Gli insiemi di controllo e verifica migliorano la leggibilità dei risultati di LLM”.L’azienda sottolinea che finora ha ottimizzato “il processo di risoluzione dei problemi dei modelli solidi” con l’obiettivo di ottenere solo una risposta corretta. Tuttavia, nella maggior parte dei casi queste soluzioni possono essere difficili da capire.

La soluzione a questo problema consiste nel creare un sistema di insiemi di controllo e verificadove, da un lato, si garantisce che la risposta fornita dall’IA sia corretta, facilmente comprensibile dall’utente e facilmente verificabile da altri sistemi di IA.

“Comprendere e affrontare l’equilibrio tra prestazioni e leggibilità può portare ad applicazioni di IA più efficaci e affidabili, a vantaggio di un’ampia gamma di settori in cui una comunicazione accurata e chiara è essenziale.”

Come funziona la suite di tester e verificatori di OpenAI.

ChatGPT, il chatbot di OpenAIChatGPT, il chatbot di OpenAI

La verità è che questo sistema di intelligenza artificiale che OpenAI sta iniziando a utilizzare per addestrare i suoi modelli non è nuovo. Infatti, è stato scoperto nel 2021 diversi ricercatori di apprendimento automatico dell’Università di Toronto e del Vector Institute for Artificial Intelligence. Consiste nella combinazione di due modelli di intelligenza artificiale: uno più potente, incaricato di eseguire i test, e uno meno avanzato, il verificatore.il cui compito è – come suggerisce il nome – quello di verificare che il tester abbia dato la risposta corretta.

LEGGI  TikTok è una spirale di video autolesionistici da cui i minori non possono uscire (anche se lo chiedono).

In seguito, il tester si dedica a offrire soluzioniSia le soluzioni corrette che quelle errate cercano di convincere il verificatore, mentre l’obiettivo di quest’ultimo è selezionare la risposta corretta, anche se il tester, per distrarlo, cerca di convincerlo che non è corretta.

OpenAI, tuttavia, ha utilizzato questo sistema cambiando un po’ le regole: hanno impostato il modello più avanzato in modo che fosse “utile” e desse la risposta corretta al verificatore (un modello più semplice) o, al contrario, “furbo” in modo da convincere il verificatore che la sua risposta era corretta, indipendentemente dal fatto che lo fosse. Il modello meno intelligente non sapeva se aveva a che fare con un tester utile o astuto e doveva valutare le risposte solo in base al proprio addestramento per stabilire se fossero corrette o meno.

OpenAI, inoltre, ha eseguito diversi round con i dati sulle prestazioni dei round precedenti.Il risultato ha reso il modello del verificatore in grado di resistere alle tecniche persuasive del modello del tester più astuto. Il risultato ha fatto sì che il modello di verificatore sia in grado di resistere alle tecniche persuasive del modello di tester più astuto, mentre il modello di tester è anche in grado di fornire risposte più comprensibili per l’uomo.

L’azienda sostiene che tali sistemi sono fondamentali per sviluppare modelli di IA corretti e verificabili in modo trasparente, migliorandone l’uso e la fiducia nelle applicazioni reali.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *