Ecco la questione riguardo Apple e l’AI: sono la compagnia tecnologica più ricca del pianeta e, in qualche modo, stanno ancora recuperando terreno. A marzo 2026, quel divario è più evidente che mai.
La situazione di Siri sta diventando imbarazzante
Apple ha annunciato il suo grande impegno nell’AI — Apple Intelligence — durante il WWDC 2024. Il pezzo centrale avrebbe dovuto essere una Siri completamente ricostruita, alimentata da modelli di linguaggio avanzati, in grado di comprendere il contesto, gestire compiti complessi e risultare davvero utile per la prima volta in un decennio.
Era quasi due anni fa. La nuova Siri non è ancora arrivata.
Secondo Bloomberg, il rinnovamento di Siri supportato dall’AI è stato nuovamente rinviato. Doveva essere lanciato con iOS 26.4 a marzo 2026. Ora è stato posticipato a maggio, al più presto, con alcune funzionalità che potrebbero non arrivare fino a iOS 27 a settembre. Le ragioni? La nuova Siri è troppo lenta, fatica con comandi complessi e non si integra bene con i modelli AI di Apple.
Per una compagnia che ha speso 30 miliardi di dollari in R&D l’anno scorso, è un brutto colpo.
La partnership con Google Gemini cambia tutto
La notizia più importante sull’AI di Apple quest’anno non è qualcosa che Apple abbia costruito — è qualcosa che hanno acquistato. Apple e Google hanno annunciato che la prossima generazione di modelli di base di Apple sarà basata sull’architettura e sull’infrastruttura cloud di Gemini di Google.
Lascia che questo affondi. Apple, l’azienda che ha costruito il suo marchio su un’integrazione verticale e sul controllo di ogni strato della pila, sta esternalizzando il cervello del suo assistente AI a Google.
Dalla prospettiva di uno sviluppatore API, questo è affascinante. Significa:
Le capacità di Siri saranno di classe Gemini. Questo rappresenta un enorme miglioramento rispetto a ciò che Apple stava sviluppando internamente. Gemini è in grado di gestire input multimodali, ragionamento complesso e conversazioni a lungo termine. Se Apple riuscirà effettivamente a implementare questa integrazione, Siri passerà da una battuta a un legittimo concorrente in un attimo.
La questione delle API per sviluppatori diventa complicata. Le API di Apple Intelligence attualmente consentono agli sviluppatori di integrarsi con modelli su dispositivo per cose come la sintesi di testi e la comprensione delle immagini. Ma se il backend è ora Gemini, cosa succede alla superficie API? Gli sviluppatori ottengono accesso a capacità di livello Gemini tramite l’SDK di Apple? O Apple tiene le cose buone rinchiuse dietro Siri?
Le affermazioni sulla privacy necessitano di un asterisco. L’intera proposta AI di Apple è stata “noi elaboriamo tutto sul dispositivo.” Con Gemini nel mix, parte dell’elaborazione si sposterà inevitabilmente nel cloud di Google. Apple dice che utilizzerà “Private Cloud Compute” per mantenere i dati sicuri, ma l’impressione è diversa quando i tuoi dati toccano l’infrastruttura di Google.
Cosa fa davvero Apple Intelligence oggi
Eliminando l’hype e i ritardi, ecco cosa può attualmente fare Apple Intelligence all’inizio del 2026:
Strumenti di scrittura. Riscrivi, correggi e riassumi testi in qualsiasi app. Funzionano bene e operano sul dispositivo. Probabilmente la funzionalità di Apple Intelligence più utile attualmente disponibile.
Generazione di immagini (Image Playground). Crea immagini in stile cartone animato a partire da prompt testuali. È divertente ma limitato — niente output fotorealistico, nessun controllo fine. Più un trucco da festa che uno strumento di produttività.
Riassunti delle notifiche. Riassunti di pile di notifiche generati dall’AI. A volte utili, a volte ridicolmente errati (l’incidente del riassunto di BBC News è stato il massimo della commedia).
Ricerca e pulizia delle foto. Ricerca foto in linguaggio naturale (“mostrami foto dalla spiaggia l’estate scorsa”) e rimozione di oggetti. Entrambi funzionano sorprendentemente bene.
Miglioramenti di base di Siri. Migliore comprensione del linguaggio naturale, consapevolezza sullo schermo, alcune integrazioni di ChatGPT per query complesse. Ma il grande aggiornamento dell’AI conversazionale? Sta ancora arrivando.
Per gli sviluppatori che costruiscono sulla piattaforma di Apple, l’attuale superficie API è limitata. Hai accesso al framework degli strumenti di scrittura e ad alcune capacità di ML su dispositivo tramite Core ML, ma non c’è un’API LLM di uso generale comparabile a quella che Google offre con Gemini o a quella che OpenAI fornisce tramite il loro SDK.
La concorrenza non aspetta
Mentre Apple ritarda, tutti gli altri lanciano i loro prodotti.
Google ha integrato Gemini in Android, Chrome, Workspace e praticamente in tutto il resto. Il loro Gemini Nano su dispositivo funziona sui telefoni Pixel e gestisce compiti che Apple Intelligence non può ancora affrontare.
Samsung ha lanciato caratteristiche AI Galaxy mesi prima che Apple Intelligence fosse disponibile, e la loro ultima serie Galaxy S26 ha traduzione in tempo reale, editing fotografico AI e un assistente alimentato da Gemini che funziona davvero.
Microsoft ha Copilot ovunque — Windows, Office, Edge, persino nella tastiera. Che lo ami o lo odi, sta procedendo rapidamente e sta evolvendo.
La strategia di Apple di “prenderci il nostro tempo e fare le cose per bene” ha funzionato quando erano loro a dettare il ritmo. Quando sei in ritardo di due anni su una funzionalità promessa, la pazienza inizia a sembrare incompetenza.
Cosa significa questo per gli sviluppatori
Se stai creando app per l’ecosistema di Apple, ecco cosa portare a casa:
Non puntare ancora sulle API di Apple Intelligence per funzionalità critiche. La piattaforma sta ancora evolvendo troppo rapidamente. Ciò che arriverà in iOS 26.4 potrebbe apparire completamente diverso in iOS 27 una volta completata l’integrazione con Gemini.
Core ML è ancora solido. Per l’inferenza su dispositivo — classificazione delle immagini, NLP, modelli personalizzati — Core ML rimane eccellente. L’hardware del Neural Engine di Apple è davvero il migliore della categoria per i carichi di lavoro ML su dispositivo.
Osserva da vicino l’integrazione con Gemini. Se Apple espone le capacità di livello Gemini tramite un’API per sviluppatori, si tratta di un cambiamento significativo per le app iOS. Immagina Siri Shortcuts che possono ragionare su compiti complessi a più fasi, o intenti di app che comprendono un linguaggio naturale sottile.
L’AI cross-platform è la scommessa più sicura. Finché la storia dell’AI di Apple non si stabilizza, costruire sull’API di OpenAI, sull’API Gemini di Google o sull’API Claude di Anthropic ti dà più controllo e minori dipendenze dalla piattaforma.
La valutazione onesta
La strategia AI di Apple nel 2026 è un mix strano di capacità tecniche genuine e ritardi esecutivi frustranti. L’hardware è presente — i chip delle serie M e A sono mostri per i carichi di lavoro ML. La questione della privacy su dispositivo è convincente. Gli strumenti di scrittura e le funzionalità fotografiche sono veramente utili.
Ma la funzionalità di punta — la Siri alimentata da AI che doveva cambiare tutto — continua a slittare. E la decisione di collaborare con Google per i modelli sottostanti, sebbene pragmatica, minaccia la narrativa di “facciamo tutto noi stessi” che i fan di Apple adorano.
La mia previsione: quando la Siri alimentata da Gemini arriverà finalmente (probabilmente a settembre 2026 con iOS 27), sarà buona. Forse anche grandiosa. Ma a quel punto, Google e Samsung si saranno già mossi verso la prossima novità, e Apple sarà ancora a inseguire.
La compagnia più ricca del mondo non dovrebbe essere così indietro rispetto al cambiamento tecnologico più importante di un decennio. Eppure, eccoci qui.
🕒 Published: