Ecco il punto riguardo Apple e AI: sono l’azienda tecnologica più ricca del pianeta, e in qualche modo stanno ancora cercando di recuperare. A marzo 2026, quel divario è più evidente che mai.
La situazione di Siri sta diventando imbarazzante
Apple ha annunciato il suo grande impegno nell’AI — Apple Intelligence — durante WWDC 2024. Il pezzo forte doveva essere una Siri completamente ricostruita, alimentata da modelli di linguaggio ampio, capace di capire il contesto, gestire compiti a più fasi e risultare effettivamente utile per la prima volta in un decennio.
Era quasi due anni fa. La nuova Siri non è ancora arrivata.
Secondo Bloomberg, il rinnovamento della Siri potenziata dall’AI è stato nuovamente rinviato. Doveva essere lanciata con iOS 26.4 a marzo 2026. Ora è stata posticipata a maggio al più presto, con alcune funzionalità che potrebbero non arrivare fino a iOS 27 a settembre. Le ragioni? La nuova Siri è troppo lenta, ha difficoltà con comandi complessi e non si integra bene con i modelli di AI di Apple.
Per un’azienda che ha speso 30 miliardi di dollari in R&D l’anno scorso, è un brutto colpo.
La partnership con Google Gemini cambia tutto
La notizia più importante di Apple riguardo l’AI quest’anno non è qualcosa che Apple ha costruito — è qualcosa che hanno acquistato. Apple e Google hanno annunciato che la prossima generazione di modelli di base di Apple sarà basata sull’architettura e sull’infrastruttura cloud di Google Gemini.
Lasciate che questo affondi. Apple, l’azienda che ha costruito il suo marchio su integrazione verticale e controllo di ogni strato della pila, sta esternalizzando il cervello del suo assistente AI a Google.
Dal punto di vista di uno sviluppatore API, questo è affascinante. Significa:
Le capacità di Siri saranno di livello Gemini. Questo rappresenta un enorme aggiornamento rispetto a qualsiasi cosa Apple stesse preparando internamente. Gemini può gestire input multimodali, ragionamenti complessi e conversazioni a lungo termine. Se Apple riuscisse effettivamente a lanciare questa integrazione, Siri passerebbe da una barzelletta a un serio concorrente da un giorno all’altro.
La storia delle API per sviluppatori si complica. Le API di Apple Intelligence attualmente consentono agli sviluppatori di integrarsi con modelli on-device per cose come la sintesi di testo e la comprensione delle immagini. Ma se il backend è ora Gemini, che ne sarà della superficie API? Gli sviluppatori avranno accesso a funzionalità di livello Gemini tramite il SDK di Apple? O Apple terrà le cose buone bloccate dietro Siri?
Le affermazioni sulla privacy hanno bisogno di un asterisco. L’intero pitch di Apple riguardo l’AI è stato “processiamo tutto on-device.” Con Gemini in gioco, inevitabilmente parte dell’elaborazione si sposterà nel cloud di Google. Apple afferma che utilizzerà “Private Cloud Compute” per mantenere i dati al sicuro, ma l’ottica è diversa quando i tuoi dati toccano l’infrastruttura di Google.
Cosa fa realmente Apple Intelligence oggi
Eliminate l’hype e i ritardi, ecco cosa può realmente fare Apple Intelligence in questo momento all’inizio del 2026:
Strumenti di scrittura. Riscrivere, correggere e riassumere testo in qualsiasi app. Funzionano bene e girano on-device. Probabilmente la funzionalità di Apple Intelligence più utile disponibile oggi.
Generazione di immagini (Image Playground). Creare immagini in stile cartone animato da suggerimenti di testo. È divertente ma limitato — nessun output fotorealistico, nessun controllo fine. Più un trucco da festa che uno strumento di produttività.
Riepiloghi delle notifiche. Riepiloghi generati dall’AI delle pile di notifiche. A volte utili, a volte esilaranti (l’incidente del riepilogo delle notizie della BBC è stato il culmine della comicità).
Ricerca e pulizia delle foto. Ricerca di foto in linguaggio naturale (“mostrami foto dalla spiaggia l’estate scorsa”) e rimozione di oggetti. Entrambi funzionano sorprendentemente bene.
Miglioramenti di base per Siri. Maggiore comprensione del linguaggio naturale, consapevolezza sullo schermo, alcune integrazioni con ChatGPT per query complesse. Ma il grande upgrade dell’AI conversazionale? Ancora in arrivo.
Per gli sviluppatori che costruiscono sulla piattaforma di Apple, la superficie API attuale è limitata. Hai accesso al framework degli strumenti di scrittura e ad alcune capacità ML on-device tramite Core ML, ma non c’è una API LLM di uso generale comparabile a quella che Google offre con Gemini o a quella che OpenAI fornisce tramite il loro SDK.
La concorrenza non aspetta
Mentre Apple ritarda, gli altri lanciano.
Google ha Gemini integrato in Android, Chrome, Workspace e praticamente ovunque. Il loro Gemini Nano on-device funziona su telefoni Pixel e gestisce compiti che Apple Intelligence non può ancora toccare.
Samsung ha lanciato funzionalità AI per Galaxy mesi prima che Apple Intelligence fosse disponibile, e il loro ultimo Galaxy S26 ha traduzione in tempo reale, editing di foto AI e un’assistente potenziato da Gemini che funziona realmente.
Microsoft ha Copilot ovunque — Windows, Office, Edge, persino la tastiera. Piaccia o meno, è disponibile e sta iterando velocemente.
La strategia di Apple di “prenderemo il nostro tempo e faremo le cose per bene” ha funzionato quando erano loro a dettare il ritmo. Quando sei in ritardo di due anni su una funzione promessa, la pazienza inizia a sembrare incompetenza.
Cosa significa per gli sviluppatori
Se stai costruendo app per l’ecosistema di Apple, ecco il takeaway pratico:
Non puntare ancora sulle API di Apple Intelligence per le funzionalità critiche. La piattaforma sta ancora evolvendo troppo rapidamente. Ciò che viene lanciato in iOS 26.4 potrebbe apparire completamente diverso in iOS 27 una volta che l’integrazione di Gemini sarà attiva.
Core ML è ancora solido. Per inferenze on-device — classificazione delle immagini, NLP, modelli personalizzati — Core ML rimane eccellente. L’hardware del Neural Engine di Apple è davvero il migliore della categoria per i carichi di lavoro ML on-device.
Monitora da vicino l’integrazione di Gemini. Se Apple esporrà funzionalità di livello Gemini attraverso un’API per sviluppatori, sarà un cambio significativo per le app iOS. Immagina Siri Shortcuts che possono ragionare su compiti complessi a più fasi, o intenti dell’app che comprendono il linguaggio naturale in modo sfumato.
L’AI cross-platform è la scommessa più sicura. Fino a quando la storia dell’AI di Apple non si stabilizza, costruire sull’API di OpenAI, sull’API di Google Gemini o sull’API Claude di Anthropic ti offre più controllo e meno dipendenze dalla piattaforma.
La valutazione onesta
La strategia di Apple per l’AI nel 2026 è una strana miscela di autentica capacità tecnica e frustranti ritardi nell’esecuzione. L’hardware c’è — i chip serie M e A sono mostri per i carichi di lavoro ML. La storia della privacy on-device è convincente. Gli strumenti di scrittura e le funzionalità fotografiche sono realmente utili.
Ma la funzionalità di punta — la Siri alimentata dall’AI che doveva cambiare tutto — continua a slittare. E la decisione di collaborare con Google per i modelli sottostanti, per quanto pragmatica, mina il racconto del “facciamo tutto noi” che i fan di Apple amano.
La mia previsione: quando la Siri potenziata da Gemini sarà finalmente disponibile (probabilmente a settembre 2026 con iOS 27), sarà buona. Forse anche ottima. Ma a quel punto, Google e Samsung saranno già passati oltre, e Apple sarà ancora lì a recuperare il ritardo.
L’azienda più ricca del mondo non dovrebbe essere così indietro su quel che rappresenta il cambiamento tecnologico più importante di un decennio. Eppure, eccoci qui.
🕒 Published: