OpenAI annuncia GPT-4o: la sua AI più potente sarà disponibile gratuitamente su ChatGPT

OpenAI ha fatto un importante passo in avanti questo lunedì con la presentazione da GPT-4oil suo modello linguistico più potente fino ad oggi. Questa nuova versione della sua IA ha un'”intelligenza di livello GPT-4″, ma con capacità molto più elevate di interpretazione di audio e immagini.

Durante la presentazione di GPT-4o, Mira Muratiil chief technology officer della startup, ha spiegato che il nuovo modello sarà disponibile per tutti gli utenti di ChatGPT. Ciò significa che il chatbot non implementerà questa tecnologia solo sulle versioni a pagamento, ma anche su quelle a pagamento. la sua variante gratuita.

Uno dei grandi vantaggi della GPT-4o è che esegue l’elaborazione di audio e immagini in modo nativo.. Questo ha permesso all’azienda di eseguire una serie di dimostrazioni dal vivo, tra cui alcune con richieste forniti dai seguaci di X (Twitter).

Il punto forte di GPT-4o è che permette di interagire in modo più colloquiale con ChatGPT utilizzando la voce. In questo modo, gli utenti possono interrompere il modello linguistico nel bel mezzo di una risposta per chiedere una modifica del testo. prompt originale, senza alcun problema di ritardo o latenza..

Gli ingegneri di OpenAI hanno anche dimostrato la capacità di GPT-4o di. interpretare in tempo reale ciò che stava catturando attraverso la fotocamera di uno smartphone. In questo modo, ChatGPT è stato in grado di aiutare a risolvere un’equazione lineare e di rilevare le emozioni di una persona guardandola in faccia.

OpenAI annuncia l’arrivo di una nuova IA in tutte le versioni di ChatGPT

OpenAI ha indicato che il rollout di GPT-4o avverrà in modo iterativo. Per quanto riguarda ChatGPT, le funzionalità di testo e immagine della nuova intelligenza artificiale saranno disponibili da oggi.. Come già detto, sarà disponibile per gli utenti della versione gratuita e delle varianti a pagamento come ChatGPT Plus. Tuttavia, chi accede alla versione in abbonamento avrà limiti di messaggi cinque volte superiori.

LEGGI  USA E UK UNISCONO LE FORZE PER VALUTARE L'AI E PREVENIRE UN FUTURO CATASTROFICO. Stati Uniti e Regno Unito uniscono le forze per valutare l'IA e prevenire un futuro catastrofico

Per quanto riguarda la modalità vocale (Modalità vocale) di GPT-4o, sarà disponibile in versione alfa per gli abbonati a ChatGPT Plus nelle prossime settimane. Vale la pena notare che l’accesso a questa tecnologia non sarà limitato al chatbot OpenAI. Il modello linguistico sarà disponibile anche attraverso l’API dell’azienda. Sam Altman pubblicato su X (Twitter) durante la presentazione che GPT-4o costerà la metà, sarà due volte più veloce e avrà limiti 5 volte superiori a GPT-4 Turbo tramite l’API.

Perché GPT-4o?

Come spiega OpenAI, la “o” sta per “omni”. In effetti, durante la presentazione, questa intelligenza artificiale è stata definita come un omnimodelloo omnimodello, grazie alla sua capacità di interagire, combinare, comprendere e fornire risposte in testo, audio e video.

Gli sviluppatori indicano che il GPT-4o è in grado di rispondere alle richieste vocali con una latenza che appena 232 millisecondi, anche se la media è di 320 millisecondi. Si tratta di un’evoluzione brutale rispetto al GPT-4, dove il tempo medio di risposta della modalità voce di ChatGPT era di circa 5,4 secondi.

“Con GPT-4o, addestriamo un unico nuovo modello end-to-end su testo, visione e audio, il che significa che tutti gli input e gli output vengono elaborati dalla stessa rete neurale. Poiché GPT-4o è il nostro primo modello che combina tutte queste modalità, stiamo ancora grattando la superficie per esplorare ciò che il modello può fare e i suoi limiti”.

OpenAI.

GPT-4o eguaglia le prestazioni di GPT-4 Turbo quando si tratta di codice e testo in inglese. Tuttavia, introduce anche “miglioramenti significativi” quando si lavora con altre lingue come metodi di input. Durante la presentazione, è stato possibile vedere come l’AI traduceva una conversazione in tempo reale tra inglese e italiano.

LEGGI  Instagram lancia le note video: ecco come funzionano

In termini di sicurezza, OpenAI afferma di essere consapevole che le nuove funzionalità di GPT-4o possono presentare nuovi rischi. Per questo motivo il rilascio al pubblico sarà graduale. Come indicato in precedenza, da oggi gli utenti di ChatGPT potranno iniziare a utilizzare l’IA con testo e immagini come input, ma solo con testo come output. Le risposte audio arriveranno in un secondo momento e saranno inizialmente limitate a un catalogo di voci preselezionate.

La startup guidata da Sam Altman ha anche ha pubblicato un video che mostra i limiti Tra i problemi principali c’è la mancanza di comprensione di alcuni aspetti della modalità vocale GPT-4o. messaggi in lingue diverse dall’inglese, o addirittura mescolando le lingue nelle loro risposte.

Elaborazione…

Hai finito! Ora siete iscritti

Si è verificato un errore, aggiornare la pagina e riprovare.

Anche in Hipertextual:

Antonio
WRITTEN BY

Antonio

Ciao, mi chiamo Antonio. Sono uno scrittore di DFO Media e la mia passione è esplorare l'intersezione tra sport e tecnologia. Attraverso i miei scritti, svelo le innovazioni che stanno plasmando il futuro dello sport.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *