Mantenete il nome: GPT-4o. È l’IA di cui si parlerà di più nei prossimi mesi. Il lavoro, ovviamente, di OpenAI.. È l’ultimo aggiornamento del modello conversazionale dell’azienda e si concentra chiaramente sull’interazione vocale. Ciò che ha insegnato toglie il parlato.
Dalle traduzioni in tempo reale all’IA che interagisce tra due smartphone diversi, ai diversi modi di modulare la voce o di risolvere le equazioni, sono tutte cose che possono essere fatte in questo modello. E non è che non abbiamo visto cose simili nel recente passato, ovviamente. Ma è il sorprendente facilità e chiarezza dell’interazione tra umani e IA. che colpisce del GPT-4o.
Perché affinché questo tipo di tecnologia diventi invisibile, nel più puro stile di Il suoNon ci deve essere attrito. E il GPT-4o quasi, quasi ci riesce. Almeno in questi primi video di prova.
Imparare le lingue, capire il mondo che ci circonda e molto altro.
I video di GPT-4o mostrati da OpenAI offrono davvero uno sguardo dettagliato su ciò che la nuova IA può raggiungere. La vediamo facilitare le conversioni in due lingue in tempo reale, descrivere ciò che vede in una stanza, o interagire in una riunione di Google Meet.
Inoltre, poiché ora si integra perfettamente con la fotocamera del dispositivo, offre grandi possibilità in termini di accessibilità. In uno dei video, si vede un uomo che cammina per Londra e un GPT-4o che descrive tutto ciò che la fotocamera cattura al suo passaggio..
GPT4-0 è posizionato come una delle IA più potenti, ed è molto probabile che altri importanti operatori del settore facciano passi simili nel prossimo futuro.come Google, Apple o Microsoft.