Voici le souci avec Apple et l’IA : c’est la société technologique la plus riche au monde, et pourtant, elle est toujours à la traîne. En mars 2026, cet écart est plus visible que jamais.
La situation de Siri devient embarrassante
Apple a annoncé son grand projet IA — Apple Intelligence — lors de la WWDC 2024. Le point central devait être un Siri entièrement reconstruit, alimenté par de grands modèles de langage, capable de comprendre le contexte, de gérer des tâches complexes et d’être vraiment utile pour la première fois en une décennie.
C’était il y a presque deux ans. Le nouveau Siri n’est toujours pas là.
Selon Bloomberg, le remaniement de Siri alimenté par l’IA a de nouveau été retardé. Il devait être lancé avec iOS 26.4 en mars 2026. Maintenant, il a été repoussé à mai au plus tôt, certaines fonctionnalités pouvant ne pas arriver avant iOS 27 en septembre. Les raisons ? Le nouveau Siri est trop lent, a du mal avec des commandes complexes et ne s’intègre pas bien avec les propres modèles d’IA d’Apple.
Pour une entreprise qui a dépensé 30 milliards de dollars en R&D l’année dernière, c’est un difficile constat.
Le partenariat Google Gemini change la donne
La plus grande nouvelle d’Apple en matière d’IA cette année n’est pas quelque chose qu’Apple a construit — c’est quelque chose qu’ils ont acheté. Apple et Google ont annoncé que la prochaine génération de modèles de fondation Apple sera basée sur l’architecture et l’infrastructure cloud de Google Gemini.
Laissez cela sink in. Apple, la société qui a construit sa marque sur l’intégration verticale et le contrôle de chaque couche de la pile, externalise le cerveau de son assistant IA à Google.
Du point de vue d’un développeur d’API, c’est fascinant. Cela signifie :
Les capacités de Siri seront de classe Gemini. C’est une mise à niveau massive par rapport à ce qu’Apple concoctait en interne. Gemini peut gérer des entrées multimodales, un raisonnement complexe et des conversations de long contexte. Si Apple parvient vraiment à expédier cette intégration, Siri passera d’une blague à une véritable concurrente du jour au lendemain.
L’histoire de l’API pour développeurs devient compliquée. Les API d’Apple Intelligence permettent actuellement aux développeurs de s’intégrer à des modèles sur l’appareil pour des choses comme la résumation de texte et la compréhension d’image. Mais si le backend est maintenant Gemini, que devient la surface API ? Les développeurs auront-ils accès aux capacités de niveau Gemini via le SDK d’Apple ? Ou Apple garde-t-elle les bonnes choses verrouillées derrière Siri ?
Les revendications en matière de confidentialité nécessitent un astérisque. Tout le discours d’Apple sur l’IA a été « nous traitons tout sur l’appareil. » Avec Gemini dans le mélange, certains traitements vont inévitablement migrer vers le cloud de Google. Apple dit qu’ils utiliseront « Private Cloud Compute » pour garder les données sécurisées, mais la perception est différente lorsque vos données touchent l’infrastructure de Google.
Ce que fait réellement Apple Intelligence aujourd’hui
Enlevez le battage médiatique et les retards, et voici ce que Apple Intelligence peut réellement faire en ce moment début 2026 :
Outils d’écriture. Réécrire, relire et résumer du texte dans n’importe quelle application. Ils fonctionnent bien et tournent sur l’appareil. Probablement la fonctionnalité Apple Intelligence la plus utile lancée aujourd’hui.
Génération d’images (Image Playground). Créer des images de style cartoon à partir de textes. C’est amusant mais limité — pas de sortie photoréaliste, pas de contrôle précis. Plus un tour de magie qu’un outil de productivité.
Résumé de notifications. Résumés générés par l’IA des piles de notifications. Parfois réussis, parfois hilarants (l’incident du résumé de BBC News était le comble de la comédie).
Recherche et nettoyage de photos. Recherche de photos en langage naturel (« montre-moi des photos de la plage l’été dernier ») et suppression d’objets. Les deux fonctionnent étonnamment bien.
Améliorations de Siri basiques. Meilleure compréhension du langage naturel, sensibilité à l’écran, intégration de ChatGPT pour des requêtes complexes. Mais la grande mise à niveau en matière d’IA conversationnelle ? Toujours à venir.
Pour les développeurs construisant sur la plateforme d’Apple, la surface API actuelle est limitée. Vous avez accès au cadre des outils d’écriture et à certaines capacités de ML sur l’appareil via Core ML, mais il n’y a pas d’API LLM à usage général comparable à ce que Google offre avec Gemini ou à ce qu’OpenAI fournit via leur SDK.
La concurrence n’attend pas
Alors qu’Apple prend du retard, tout le monde avance.
Google a intégré Gemini dans Android, Chrome, Workspace, et pratiquement tout le reste. Son Gemini Nano sur l’appareil fonctionne sur les téléphones Pixel et gère des tâches que Apple Intelligence ne peut pas encore toucher.
Samsung a lancé des fonctionnalités IA Galaxy des mois avant qu’Apple Intelligence ne soit lancée, et leur dernière série Galaxy S26 dispose de traduction en temps réel, d’édition de photos par IA, et d’un assistant alimenté par Gemini qui fonctionne réellement.
Microsoft a intégré Copilot partout — Windows, Office, Edge, même le clavier. On aime ou on n’aime pas, mais ça avance et ça itère rapidement.
La stratégie d’Apple de « nous prenons notre temps pour bien faire les choses » a fonctionné lorsqu’ils étaient en tête. Lorsque vous avez deux ans de retard sur une fonctionnalité annoncée, la patience commence à ressembler à de l’incompétence.
Ce que cela signifie pour les développeurs
Si vous développez des applications pour l’écosystème d’Apple, voici ce qu’il faut retenir :
N’attendez pas des API d’Apple Intelligence pour des fonctionnalités critiques. La plateforme évolue encore trop vite. Ce qui sortira dans iOS 26.4 pourrait être totalement différent dans iOS 27 une fois l’intégration Gemini effectuée.
Core ML est toujours solide. Pour l’inférence sur l’appareil — classification d’images, NLP, modèles personnalisés — Core ML reste excellent. Le matériel Neural Engine d’Apple est vraiment de classe mondiale pour les charges de travail ML sur appareil.
Suivez de près l’intégration de Gemini. Si Apple expose des capacités de niveau Gemini via une API pour développeurs, cela constituera un changement significatif pour les applications iOS. Imaginez des Raccourcis Siri capables de raisonner sur des tâches complexes en plusieurs étapes, ou des intentions d’applications qui comprennent un langage naturel nuancé.
L’IA multiplateforme est le pari le plus sûr. Tant que l’histoire de l’IA d’Apple ne se stabilise pas, construire sur l’API d’OpenAI, l’API Gemini de Google ou l’API Claude d’Anthropic vous donnera plus de contrôle et moins de dépendances à la plateforme.
Une évaluation honnête
La stratégie IA d’Apple en 2026 est un mélange étrange de véritables capacités techniques et de retards d’exécution frustrants. Le matériel est là — les puces M-series et A-series sont des monstres pour les charges de travail ML. L’histoire de la confidentialité sur l’appareil est convaincante. Les outils d’écriture et les fonctionnalités photo sont réellement utiles.
Mais la fonctionnalité phare — le Siri alimenté par l’IA qui devait tout changer — continue d’être retardée. Et la décision de s’associer à Google pour les modèles sous-jacents, bien que pragmatique, sape le récit « nous faisons tout nous-mêmes » que les fans d’Apple adorent.
Ma prédiction : lorsque le Siri alimenté par Gemini sera enfin lancé (probablement en septembre 2026 avec iOS 27), il sera bon. Peut-être même excellent. Mais d’ici là, Google et Samsung seront déjà passés à autre chose, et Apple sera toujours à la traîne.
La société la plus riche du monde ne devrait pas être aussi loin derrière sur le changement technologique le plus important de la décennie. Et pourtant, nous y sommes.
🕒 Published: