Si dice che quando il fiume scorre, c’è acqua dentro. E nel caso di Apple, il detto si è avverato. Le voci che precedevano il WWDC 2024 sostenevano che l’azienda americana stesse preparando una marea di innovazioni legate all’intelligenza artificiale. La maggior parte di esse erano di produzione propria, come un Siri rinnovato. Altre, invece, erano il risultato di un accordo con OpenAI, la più nota startup di AI del momento. E, in effetti, è così che è stato. Nella , il keynote In occasione del keynote di apertura della sua conferenza per gli sviluppatori, l’azienda guidata da Tim Cook ha inaugurato l’era dell’Apple Intelligence.
L’azienda ha presentato Intelligenza Apple come un punto di svolta nella sua strategia. E lo si nota semplicemente nel modo in cui viene comunicata. Innanzitutto, ha avuto il suo spazio alla fine dell’evento, quasi alla fine dell’evento. Una Mminerale Cosa -piuttosto che menzionarla come una nuova funzionalità degli altri sistemi operativi. E come se non bastasse, è stato lo stesso Tim Cook a dare spazio a quel segmento specifico, cosa che il dirigente tende a fare solo quando si tratta degli annunci più importanti dell’azienda.
È importante ricordare, tuttavia, che l’intelligenza artificiale è presente nei dispositivi Apple da anni. Gli algoritmi che elaborano ogni fotografia scattata dall’iPhone ne sono la prova. Tuttavia, dopo l’irruzione di strumenti come ChatGPT, DALL-E o Gemini, che hanno rivoluzionato il settore e persino parte della società, Apple ha dovuto fare un ulteriore passo avanti nel suo impegno.
Inizia l’era dell’intelligenza Apple
La ricetta dell’Apple Intelligence si basa, come ha spiegato lo stesso Tim Cook, su cinque pilastri: potente, intuitivo, integrato, personale e privato. Su quest’ultimo aspetto, in particolare, l’azienda ha parlato a lungo. È uno dei fattori che ha sempre differenziato i suoi prodotti da quelli della concorrenza. E, in questa nuova fase, non potrebbe essere diversamente.
Apple afferma che gran parte dell’elaborazione dell’Apple Intelligence avviene a livello locale, quindi i dati non lasciano il dispositivo e rimangono sotto il controllo del proprietario. Per utilizzare questa intelligenza artificiale, infatti, richiede un dispositivo con un chip A17 Pro, M1, M2, M3 o M4.. Ovvero: iPhone 15 Pro, iPhone 15 Pro Max, una delle ultime tre generazioni di iPad Pro, una delle ultime due generazioni di iPad Air o uno dei Mac con Apple Silicon.
Tuttavia, l’azienda si affiderà al cloud anche per una parte delle sue attività. Come hanno riconosciuto, la potenza extra che un server esterno può fornire è necessaria in alcune occasioni. Per queste situazioni, l’azienda ha creato Private Cloud Compute, un sistema che consente di elaborare le richieste sui server dell’azienda senza memorizzare dati personali e in totale trasparenza. Questi server sono gestiti da Apple e utilizzano i chip dell’azienda.
Quando un utente fa una richiesta al proprio dispositivo, Apple Intelligence analizza se può essere elaborata localmente o se necessita della potenza extra fornita dai server, secondo quanto dichiarato dal responsabile software dell’azienda. Se è necessario ricorrere al cloud, il prodotto condividerà solo le informazioni necessarie per completare l’operazione, oltre ad applicare diverse misure di sicurezza durante il processo che preservano la privacy dell’utente.
L’influenza dell’intelligenza Apple è palpabile in diversi punti del sistema operativo per iPhone, iPad e Mac. Ad esempio, l’intelligenza artificiale è in grado di riassumere documenti, correggere la digitazione, creare testi da zero, sintetizzare un thread di e-mail, assegnare priorità alle notifiche in base al loro contenuto, creare trascrizioni di chiamate o persino rispondere alle e-mail con pochi comandi. Inoltre guida una nuova modalità di concentrazione chiamata “Riduci le interruzioni”. che analizza le notifiche e lascia passare solo quelle veramente urgenti, come un messaggio del vostro partner che vi dice a che ora dovete andare a prendere vostra figlia.
Apple Intelligence è anche in grado di lavorare con le immagini. Per esempio:
- Image Playground consente di creare immagini da zero fornendo una descrizione o persino un’immagine dalla propria galleria fotografica.
- Genmoji permette di creare emoticon personalizzate utilizzando l’intelligenza artificiale per adattarle al momento esatto. È anche possibile utilizzare una foto dalla propria galleria per rendere l’emoji il più simile possibile a quella persona.
- Image Wand trasforma uno schizzo disegnato con Apple Pencil in un’illustrazione o una fotografia realistica.
- Nell’app Foto, è possibile creare video personalizzati utilizzando ciò che è presente nella galleria e la descrizione fornita all’Apple Intelligence.
- Lo strumento Pulisci consente di eliminare elementi da una foto in pochi secondi, semplicemente cerchiando la persona o l’oggetto in questione.
Siri fa un enorme passo avanti
Anche l’era dell’intelligenza Apple ha fatto progredire Siri in modo straordinario. L’azienda sostiene che le sue risposte sono molto più naturali, è in grado di collegare i concetti e di avere conversazioni contestuali, è in grado di rispondere a molte più domande di prima e ha persino un maggiore controllo sul sistema operativo stesso.
Debutta anche Siri un nuovo design. Quando viene attivato, i bordi dello schermo si illuminano per indicare che è in funzione. Un’interfaccia meno invasiva e più attraente rispetto alle generazioni precedenti.
Questo cambiamento estetico va di pari passo con una delle sue nuove caratteristiche: la possibilità di vedere e analizzare ciò che si vede sullo schermo.. Se, ad esempio, una persona condivide con voi il suo indirizzo in un messaggio, potete chiedere a Siri di aggiungere queste informazioni alla sua scheda di contatto. Il sistema individuerà da solo l’indirizzo da aggiungere e il contatto in questione.
Un altro aspetto evidenziato da Apple è il maggiore contesto che Siri ha su di noi. In una delle dimostrazioni, le viene chiesto a che ora atterra l’aereo di sua madre. L’assistente, dopo aver analizzato conversazioni, e-mail e informazioni provenienti da varie app, è in grado di rispondere alla domanda senza indicare il volo specifico. Un altro esempio: se un amico condivide con voi una ricetta, non dovete cercare tra i messaggi, le e-mail o gli appunti. Basta dire “mostrami la ricetta della tortilla che Gerardo ha condiviso con me”. Tutto qui. Apple Intelligence e Siri si occupano di tutto per voi.
Apple ha anche ha annunciato una nuova API che consentirà agli sviluppatori di integrare più intimamente le loro applicazioni con l’assistente vocale. Ad esempio, sarà possibile chiedere a Siri di scattare una foto a lunga esposizione con un’applicazione di terze parti come Halide, o di far applicare a Lightroom una preimpostazione alle vostre foto del viaggio a Roma.
Apple collabora con OpenAI e integra il suo modello in iOS 18, macOS 15 Sequoia e iPadOS 18.
Una delle novità più interessanti della WWDC 2024 è stata l’accordo dell’azienda statunitense con OpenAIla startup dietro ChatGPT e DALL-E. Questo accordo, tuttavia, è solo una parte dell’intera strategia di intelligenza artificiale annunciata dall’azienda sotto l’egida di Apple Intelligence.
Grazie alla collaborazione con OpenAI, gli utenti di dispositivi Apple potranno utilizzare ChatGPT per scrivere testi o ottenere maggiori informazioni su un argomento senza dover utilizzare l’app. Il chatbot sarà integrato direttamente nei menu e nelle interfacce del sistema.
Ad esempio, se state scrivendo un testo, con pochi clic avrete a disposizione un pulsante che vi permetterà di utilizzare ChatGPT, l’assistente OpenAI, per creare qualcosa da zero sulla base dei vostri input. Lo stesso vale per Siri. Se si pone una domanda all’assistente di Apple, questo può collegarsi a ChatGPT per fornire una risposta più elaborata.
È importante fare alcune osservazioni su questa integrazione:
- Ogni volta che vengono condivise informazioni private (ad esempio una fotografia), il dispositivo chiederà una conferma prima di effettuare la richiesta a ChatGPT.
- Questa integrazione è completamente gratuita e non richiede la creazione di un account OpenAI. Tuttavia, chi paga l’abbonamento premiumSe siete clienti Premium, potete collegare il vostro ID Apple per un’esperienza superiore.
- Apple ha chiarito che intende aggiungere altri modelli di IA in futuro, quindi non sarebbe una sorpresa se Gemini, il modello di Google, venisse integrato in modo simile a OpenAI in un secondo momento.
Tutte queste nuove funzionalità di Apple Intelligence, compresa l’integrazione con ChatGPT, l’assistente di OpenAI, arriveranno su iPhone, iPad e Mac compatibili in autunno con iOS 18, iPadOS 18 e macOS 15 Sequoia.