A un’ora dal Google I/O 2024, l’azienda ha già svelato una delle sue principali novità. Si tratta di una aggiornamento per l’intelligenza artificiale Gemini in grado di “vedere” ciò che la fotocamera dello smartphone cattura e di fornire informazioni sull’ambiente, rispondendo a eventuali domande dell’interlocutore.
Si tratta di uno strumento che offre vaste possibilità, come l’intelligenza artificiale di Google apre le porte a un livello superiore in questo rapporto uomo-software.. È, infatti, simile a ciò che OpenAI ha presentato questo lunedì con GPT-4o, dove questo rapporto con l’ambiente attraverso la fotocamera del dispositivo diventa centrale. I numerosi video che fanno uso di questo strumento lo dimostrano.
Un Google I/O con Gemini e l’AI in primo piano
L’annuncio arriva prima del previsto tramite Logan Kilpatrick su X. Profilo riconosciuto nel campo dell’intelligenza artificiale, è stato, infatti, un dipendente di OpenAI fino a poche settimane fa. prima di passare all’azienda di Mountain View.
Google cercherà di competere con l’azienda di Sam Altman a questo I/O e i suoi progressi nell’AI promettono di essere all’altezza del compito. Nel video sopracitato è possibile vedere questa nuova integrazione, che farà parte di Gemini, rispondere a una serie di domande nella platea dove si terrà la presentazione di domani.. Tutto ciò che deve fare è ascoltare la voce dell’utente e analizzare rapidamente ciò che la sua telecamera cattura.
Lo sviluppo di Gemini è una delle tecnologie più importanti per Google. in questa corsa all’intelligenza artificiale. Ecco perché i progressi avvengono a un ritmo frenetico, nel tentativo di non rimanere indietro. Nessuno vuole rimanere indietro nel “settore caldo” della Silicon Valley di oggi.
Resta da vedere, tuttavia, se questa versione sarà in grado di fare tutto ciò che offre la sua controparte quasi OpenAI. Lo sapremo tra poche ore.