Ecco il problema con Apple e l’IA: è l’azienda tecnologica più ricca del pianeta, eppure sta ancora cercando di recuperare il ritardo. A marzo 2026, questo divario è più visibile che mai.
La situazione di Siri diventa imbarazzante
Apple ha annunciato il suo grande impegno nell’IA — Apple Intelligence — durante la WWDC 2024. Il fulcro doveva essere un Siri completamente ricostruito, alimentato da grandi modelli di linguaggio, in grado di comprendere il contesto, gestire compiti complessi e essere realmente utile per la prima volta in dieci anni.
Era quasi due anni fa. Il nuovo Siri non è ancora arrivato.
Secondo Bloomberg, il rinnovamento di Siri guidato dall’IA è stato ritardato di nuovo. Doveva essere lanciato con iOS 26.4 a marzo 2026. Ora è rimandato a maggio al più presto, alcune funzionalità potrebbero non arrivare prima di iOS 27 a settembre. Le ragioni? Il nuovo Siri è troppo lento, ha difficoltà con comandi complessi e non si integra bene con i propri modelli di IA di Apple.
Per un’azienda che ha speso 30 miliardi di dollari in R&D l’anno scorso, è uno sguardo difficile.
Il partenariato Google Gemini cambia tutto
La più grande novità dell’IA di Apple quest’anno non è qualcosa che l’azienda ha creato — è qualcosa che ha acquistato. Apple e Google hanno annunciato che la prossima generazione di modelli fondamentali di Apple sarà basata sull’architettura Gemini di Google e sulla sua infrastruttura cloud.
Lascialo assimilare. Apple, l’azienda che ha costruito il proprio marchio sull’integrazione verticale e sul controllo di ogni strato della pila, esternalizza il cervello del suo assistente IA a Google.
Dal punto di vista di uno sviluppatore di API, è affascinante. Questo significa:
Le capacità di Siri saranno di classe Gemini. È un enorme aggiornamento rispetto a ciò che Apple stava preparando internamente. Gemini può gestire input multi-modali, ragionamenti complessi e conversazioni a lungo termine. Se Apple riesce davvero a spedire questa integrazione, Siri passerà da una barzelletta a un concorrente legittimo da un giorno all’altro.
La storia dell’API per gli sviluppatori diventa complessa. Le API di Apple Intelligence attualmente consentono agli sviluppatori di integrare modelli su dispositivo per cose come il riassunto di testi e la comprensione delle immagini. Ma se il backend è ora Gemini, cosa succederà per la superficie API? Gli sviluppatori avranno accesso a capacità di livello Gemini tramite il SDK di Apple? O Apple terrà le cose migliori bloccate dietro a Siri?
Le affermazioni sulla privacy richiedono un asterisco. L’intera narrazione sull’IA di Apple è stata “trattiamo tutto sul dispositivo.” Con Gemini nel mix, alcuni processi saranno inevitabilmente spostati nel cloud di Google. Apple afferma che utilizzerà “il calcolo nel cloud privato” per mantenere i dati al sicuro, ma la percezione è diversa quando i tuoi dati toccano l’infrastruttura di Google.
Ciò che Apple Intelligence fa realmente oggi
Elimina l’eccitazione e i ritardi, ecco cosa Apple Intelligence può realmente fare all’inizio di quest’anno, 2026:
Strumenti di scrittura. Riscrivere, correggere e riassumere testi in qualsiasi applicazione. Funziona bene e si svolge sul dispositivo. Probabilmente la funzionalità più utile di Apple Intelligence disponibile oggi.
Generazione di immagini (Image Playground). Creare immagini in stile cartone animato a partire da frasi di testo. È divertente ma limitato — niente output fotorealistico, nessun controllo fine. Più un trucco magico che uno strumento di produttività.
Riassunti delle notifiche. Riassunti generati dall’IA delle pile di notifiche. A volte utili, a volte ampiamente errati (l’incidente del riassunto di BBC News è stato il culmine della commedia).
Ricerca di foto e pulizia. Ricerca di foto in linguaggio naturale (“mostrami foto della spiaggia dell’estate scorsa”) e rimozione di oggetti. Entrambi funzionano sorprendentemente bene.
Miglioramenti di base di Siri. Maggiore comprensione del linguaggio naturale, consapevolezza dello schermo, integrazione di ChatGPT per richieste complesse. Ma il grande aggiornamento conversazionale dell’IA? Ancora da arrivare.
Per gli sviluppatori che costruiscono sulla piattaforma di Apple, l’attuale superficie API è limitata. Hai accesso al framework degli strumenti di scrittura e a alcune capacità di ML su dispositivo tramite Core ML, ma non ci sono API LLM generali paragonabili a ciò che Google offre con Gemini o ciò che OpenAI fornisce tramite il suo SDK.
La concorrenza non aspetta
Mentre Apple ritarda, tutti stanno spedendo.
Google ha integrato Gemini in Android, Chrome, Workspace e praticamente tutto il resto. Il loro Gemini Nano su dispositivo funziona sui telefoni Pixel e gestisce compiti che Apple Intelligence non può ancora toccare.
Samsung ha lanciato funzionalità Galaxy AI mesi prima che Apple Intelligence fosse disponibile, e la loro ultima serie Galaxy S26 ha una traduzione in tempo reale, un’editing fotografico AI e un assistente alimentato da Gemini che funziona davvero.
Microsoft ha Copilot ovunque — Windows, Office, Edge, persino la tastiera. Che ci piaccia o no, funziona e si evolve rapidamente.
La strategia di Apple di “prenderci il nostro tempo e fare bene” ha funzionato quando stabilivano il ritmo. Quando hai due anni di ritardo su una funzionalità promessa, la pazienza inizia a sembrare incompetenza.
Ciò che significa per gli sviluppatori
Se sviluppi applicazioni per l’ecosistema Apple, ecco cosa tenere a mente:
Non scommettere ancora sulle API di Apple Intelligence per funzionalità critiche. La piattaforma si sta ancora evolvendo troppo rapidamente. Ciò che viene lanciato in iOS 26.4 potrebbe avere un aspetto completamente diverso in iOS 27 una volta completata l’integrazione Gemini.
Core ML rimane solido. Per l’inferenza su dispositivo — classificazione delle immagini, NLP, modelli personalizzati — Core ML rimane eccellente. L’hardware di Apple, il Neural Engine, è veramente il migliore della sua categoria per i carichi di lavoro ML su dispositivo.
Segui da vicino l’integrazione di Gemini. Se Apple espone capacità di livello Gemini tramite un’API per sviluppatori, sarà un cambiamento significativo per le applicazioni iOS. Immagina Siri Shortcuts in grado di ragionare su compiti complessi a più fasi, o intenti di applicazione che comprendono un linguaggio naturale raffinato.
L’IA multipiattaforma è una scommessa più sicura. Fino a quando la storia dell’IA di Apple non si stabilizza, lo sviluppo sulla API di OpenAI, l’API di Gemini di Google, o l’API Claude di Anthropic ti darà più controllo e meno dipendenze dalla piattaforma.
Valutazione onesta
La strategia di Apple in materia di IA nel 2026 è un mix strano di reale capacità tecnica e ritardi di esecuzione frustranti. L’hardware è presente — i chip M e A sono veri mostri per i carichi di lavoro ML. La narrativa sulla privacy su dispositivo è convincente. Gli strumenti di scrittura e le funzionalità fotografiche sono veramente utili.
Ma la funzionalità di punta — il Siri alimentato dall’IA che doveva cambiare tutto — continua a scivolare. E la decisione di collaborare con Google per i modelli sottostanti, sebbene pragmatica, mina il racconto “facciamo tutto noi stessi” che i fan di Apple amano.
La mia previsione: quando il Siri alimentato da Gemini sarà finalmente lanciato (probabilmente a settembre 2026 con iOS 27), sarà buono. Forse anche fantastico. Ma fino ad allora, Google e Samsung saranno già passati a qualcos’altro, e Apple continuerà a recuperare il ritardo.
La più ricca azienda del mondo non dovrebbe essere così in ritardo rispetto al cambiamento tecnologico più importante dell’ultima decade. Eppure, eccoci qui.
🕒 Published: