Il Google I/O 2024 è stato dominato da una serie di novità legate all’intelligenza artificiale, oltre che da Android 15. Ma l’azienda ha fatto anche un annuncio molto importante che è passato inosservato: il lancio di Progetto Gamefaceuna tecnologia che è in grado di consentire a un utente di controllare le applicazioni su Android usando solo il viso. Si tratta di una funzione di accessibilità simile a quella introdotta da Apple e disponibile con iOS 18.
Google descrive Project Gameface come “un ‘mouse’ che consente alle persone di controllare il cursore del computer utilizzando il movimento della testa e i gesti del viso”. Ad esempio, l’utente può aprire la bocca per muovere il cursore, o alzare le sopracciglia per fare clic e trascinare un qualsiasi elementospiega l’azienda in una pubblicazione sul suo blog.
A tal fine, Google utilizza la fotocamera frontale integrata nel dispositivo stesso.che è in grado di riconoscere i gesti facciali dell’utente e di associare ogni gesto a un’azione specifica, ad esempio sorridere per fare clic. Project Gameface consente inoltre di personalizzare l’intensità o la velocità del gesto. In questo modo, l’utente può far sì che l’azione avvenga solo se il sorriso è più pronunciato, o se le sopracciglia sono sollevate più velocemente o più lentamente, ecc.
Il Project Gameface di Google sarà utilizzato nelle applicazioni Android
Google sta lavorando da tempo a questo progetto, sta implementando questo sistema in Android attraverso un’API di MediaPipe, che offre soluzioni di intelligenza artificiale e apprendimento automatico per il rilevamento dei volti, dei punti di riferimento e altro ancora, ed è in grado di riconoscere più di 52 gesti facciali.
Per il momento, il progetto Gameface di Google è disponibile su Gitbuh in modo che gli sviluppatori possano facilmente implementarlo nelle loro applicazioni.
Stiamo aprendo il codice di Project Gameface per aiutare gli sviluppatori a creare applicazioni Android per rendere tutti i dispositivi Android più accessibili. Attraverso la fotocamera del dispositivo, [Project Gameface] traccia senza soluzione di continuità le espressioni facciali e i movimenti della testa, traducendoli in comandi intuitivi e personalizzati.
Google.
Anche se non si tratta esattamente della stessa tecnologia di Google, Apple non si è lasciata sfuggire l’occasione di introdurre una nuova funzione in iOS che consentirà agli utenti di controllare il sistema, nonché alcune applicazioni, utilizzando solo lo sguardo.
Questa funzione di accessibilità verrà introdotta con iOS 18 e iPadOS 18, e sarà utilizza la fotocamera frontale, come confermato dall’azienda. “Con l’Eye Tracking, gli utenti possono navigare tra gli elementi di un’applicazione e utilizzare Dwell per attivare ciascun elemento, accedendo a funzioni aggiuntive come pulsanti fisici, scorrimenti e altri gesti con i soli occhi”, affermano.