Ecco il problema con Apple e l’IA: è l’azienda tecnologica più ricca del pianeta, eppure sta ancora cercando di recuperare il ritardo. A marzo 2026, questo divario è più evidente che mai.
La situazione di Siri diventa imbarazzante
Apple ha annunciato il suo grande investimento nell’IA — Apple Intelligence — durante la WWDC 2024. Il fulcro doveva essere un Siri completamente ricostruito, alimentato da grandi modelli di linguaggio, in grado di comprendere il contesto, gestire compiti complessi e essere davvero utile per la prima volta in dieci anni.
Era quasi due anni fa. Il nuovo Siri non è ancora arrivato.
Secondo Bloomberg, la revisione di Siri potenziata dall’IA è stata nuovamente ritardata. Doveva essere lanciata con iOS 26.4 a marzo 2026. Ora è spostata a maggio al più presto, con alcune funzionalità che potrebbero non arrivare prima di iOS 27 a settembre. I motivi? Il nuovo Siri è troppo lento, ha difficoltà con comandi complessi e non si integra bene con i modelli di IA di Apple.
Per un’azienda che ha speso 30 miliardi di dollari in R&D lo scorso anno, è uno sguardo difficile.
Il partenariato Google Gemini cambia tutto
La più grande novità dell’IA di Apple quest’anno non è qualcosa che l’azienda ha creato — è qualcosa che ha acquistato. Apple e Google hanno annunciato che la prossima generazione di modelli fondativi di Apple sarà basata sull’architettura Gemini di Google e sulla sua infrastruttura cloud.
Lasciate che questo affondi. Apple, l’azienda che ha costruito il suo marchio sull’integrazione verticale e sul controllo di ogni strato della pila, esternalizza il cervello del suo assistente IA a Google.
Dal punto di vista di un sviluppatore di API, è affascinante. Questo significa:
Le capacità di Siri saranno di classe Gemini. È un aggiornamento massiccio rispetto a ciò che Apple stava preparando internamente. Gemini può gestire input multimodali, ragionamento complesso e conversazioni a lungo termine. Se Apple riesce effettivamente a spedire questa integrazione, Siri passa da una barzelletta a un concorrente legittimo da un giorno all’altro.
La storia dell’API per gli sviluppatori diventa complicata. Le API di Apple Intelligence attualmente consentono agli sviluppatori di integrare modelli sul dispositivo per cose come il riassunto di testo e la comprensione delle immagini. Ma se il back-end è ora Gemini, cosa succede per la superficie API? Gli sviluppatori avranno accesso a capacità di livello Gemini tramite il SDK di Apple? O Apple terrà le cose buone chiuse dietro Siri?
Le affermazioni di privacy richiedono un asterisco. Tutto il discorso sull’IA di Apple è stato “trattiamo tutto sul dispositivo.” Con Gemini nel mix, alcuni trattamenti verranno inevitabilmente spostati nel cloud di Google. Apple afferma che utilizzerà “l’elaborazione nel cloud privato” per mantenere i dati al sicuro, ma la percezione cambia quando i tuoi dati toccano l’infrastruttura di Google.
Ciò che Apple Intelligence può realmente fare oggi
Togli l’entusiasmo e i ritardi, ecco cosa Apple Intelligence può realmente fare all’inizio del 2026:
Strumenti di scrittura. Riscrivere, correggere e riassumere testi in qualsiasi applicazione. Funziona bene e avviene sul dispositivo. Probabilmente la funzionalità più utile di Apple Intelligence disponibile oggi.
Generazione di immagini (Image Playground). Creare immagini in stile cartone animato a partire da frasi di testo. È divertente ma limitato — niente output fotorealistico, niente controllo fine. Più un trucco di magia che uno strumento di produttività.
Riassunti delle notifiche. Riassunti generati dall’IA delle pile di notifiche. A volte utili, a volte largamente imprecisi (l’incidente del riassunto della BBC News è stato il culmine della commedia).
Ricerca di foto e ripulitura. Ricerca di foto in linguaggio naturale (“mostrami foto della spiaggia l’estate scorsa”) e rimozione di oggetti. Entrambi funzionano sorprendentemente bene.
Potenziali miglioramenti di Siri. Maggiore comprensione del linguaggio naturale, consapevolezza dello schermo, integrazione di ChatGPT per richieste complesse. Ma il grande aggiornamento conversazionale dell’IA? Ancora in arrivo.
Per gli sviluppatori che costruiscono sulla piattaforma di Apple, l’attuale superficie API è limitata. Hai accesso al framework degli strumenti di scrittura e a poche capacità di ML sul dispositivo tramite Core ML, ma non ci sono API LLM generaliste comparabili a ciò che Google offre con Gemini o ciò che OpenAI fornisce tramite il suo SDK.
La concorrenza non aspetta
Mentre Apple ritarda, tutti stanno spedendo.
Google ha integrato Gemini in Android, Chrome, Workspace, e praticamente tutto il resto. Il loro Gemini Nano sul dispositivo funziona sui telefoni Pixel e gestisce compiti che Apple Intelligence non può ancora toccare.
Samsung ha lanciato funzionalità Galaxy AI mesi prima che Apple Intelligence fosse disponibile, e la loro ultima serie Galaxy S26 ha una traduzione in tempo reale, un’editoria foto AI, e un assistente alimentato da Gemini che funziona davvero.
Microsoft ha Copilot ovunque — Windows, Office, Edge, persino la tastiera. Che ci piaccia o no, funziona e si evolve rapidamente.
La strategia di Apple di “ci prenderemo il nostro tempo e faremo bene” ha funzionato quando stabilivano il ritmo. Quando hai due anni di ritardo su una funzionalità promessa, la pazienza inizia a sembrare incompetenza.
Ciò che significa per gli sviluppatori
Se sviluppi applicazioni per l’ecosistema di Apple, ecco cosa tenere a mente:
Non scommettere ancora sulle API di Apple Intelligence per funzionalità critiche. La piattaforma sta evolvendo troppo rapidamente. Ciò che sarà lanciato in iOS 26.4 potrebbe apparire completamente diverso in iOS 27 una volta completata l’integrazione di Gemini.
Core ML rimane solido. Per l’inferenza sul dispositivo — classificazione di immagini, NLP, modelli personalizzati — Core ML è ancora eccellente. L’hardware di Apple, il Neural Engine, è davvero il migliore della sua categoria per i carichi di lavoro ML sul dispositivo.
Segui da vicino l’integrazione di Gemini. Se Apple espone le capacità di livello Gemini tramite un’API per sviluppatori, sarà un cambiamento significativo per le applicazioni iOS. Immagina Siri Shortcuts in grado di ragionare su compiti complessi a più fasi, o intenti di applicazione che comprendono un linguaggio naturale sfumato.
L’IA multipiattaforma è una scommessa più sicura. Fino a quando la storia dell’IA di Apple non si stabilizza, lo sviluppo sull’API di OpenAI, l’API di Gemini di Google, o l’API Claude di Anthropic ti dà più controllo e meno dipendenze dalla piattaforma.
Valutazione onesta
La strategia di Apple riguardo all’IA nel 2026 è un mix strano di reale capacità tecnica e ritardi frustranti nell’esecuzione. L’hardware è presente — i chip M e A sono veri mostri per i carichi di lavoro ML. La storia della privacy sul dispositivo è convincente. Gli strumenti di scrittura e le funzionalità fotografiche sono davvero utili.
Ma la funzionalità di punta — il Siri potenziato dall’IA che doveva cambiare tutto — continua a slittare. E la decisione di unirsi a Google per i modelli sottostanti, sebbene pragmatica, mina la narrativa “facciamo tutto noi” che i fan di Apple amano.
La mia previsione: quando il Siri alimentato da Gemini sarà finalmente lanciato (probabilmente a settembre 2026 con iOS 27), sarà buono. Forse anche geniale. Ma fino ad allora, Google e Samsung saranno già passati ad altro, e Apple continuerà a rincorrere.
L’azienda più ricca del mondo non dovrebbe essere così in ritardo rispetto al cambiamento tecnologico più importante dell’ultima decade. Eppure, eccoci qui.
🕒 Published: