Hier ist das Ding mit Apple und KI: Sie sind das reichste Technologieunternehmen der Welt und sie holen irgendwie immer noch auf. Im März 2026 ist diese Lücke deutlich sichtbarer als je zuvor.
Die Siri-Situation Wird Peinlich
Apple kündigte seinen großen KI-Vorstoß — Apple Intelligence — bereits bei der WWDC 2024 an. Das Herzstück sollte eine komplett neu gestaltete Siri sein, die von großen Sprachmodellen angetrieben wird, fähig, den Kontext zu verstehen, mehrstufige Aufgaben zu bewältigen und endlich nützlich zu sein — zum ersten Mal seit einem Jahrzehnt.
Das ist fast zwei Jahre her. Die neue Siri ist immer noch nicht da.
Nach Angaben von Bloomberg wurde die KI-gestützte Überarbeitung von Siri erneut verzögert. Sie sollte im März 2026 mit iOS 26.4 ausgeliefert werden. Jetzt wurde sie frühestens auf Mai verschoben, wobei einige Funktionen möglicherweise erst mit iOS 27 im September verfügbar sein werden. Die Gründe? Die neue Siri ist zu langsam, hat Schwierigkeiten mit komplexen Befehlen und integriert sich nicht gut mit Apples eigenen KI-Modellen.
Für ein Unternehmen, das letztes Jahr 30 Milliarden Dollar für Forschung und Entwicklung ausgegeben hat, sieht das nicht gut aus.
Die Google Gemini-Partnerschaft Ändert Alles
Die größte Apple KI-Nachricht in diesem Jahr ist nicht etwas, das Apple selbst entwickelt hat — es ist etwas, das sie gekauft haben. Apple und Google kündigten an, dass die nächste Generation der Apple Foundation Models auf Googles Gemini-Architektur und Cloud-Infrastruktur basieren wird.
Lass das sacken. Apple, das Unternehmen, das seine Marke auf vertikaler Integration und der Kontrolle jeder Schicht des Stacks aufgebaut hat, lagert das Gehirn seines KI-Assistenten an Google aus.
Aus der Perspektive eines API-Entwicklers ist das faszinierend. Das bedeutet:
Die Fähigkeiten von Siri werden auf Gemini-Niveau sein. Das ist ein massives Upgrade von dem, was Apple intern entwickelt hat. Gemini kann multimodale Eingaben, komplexes Denken und lange Konversationszusammenhänge verarbeiten. Wenn Apple diese Integration tatsächlich umsetzen kann, verwandelt sich Siri von einem Witz in einen legitimen Mitbewerber über Nacht.
Die Entwickler-API-Geschichte wird kompliziert. Die Apple Intelligence APIs erlauben es Entwicklern derzeit, mit Modellen auf dem Gerät für Dinge wie Textzusammenfassungen und Bilderkennung zu integrieren. Aber wenn das Backend jetzt Gemini ist, was passiert dann mit der API-Oberfläche? Erhalten Entwickler Zugriff auf Funktionen auf Gemini-Niveau über Apples SDK? Oder hält Apple die guten Dinge hinter Siri verschlossen?
Datenschutzansprüche brauchen einen Stern. Apples gesamte KI-Präsentation lautete „Wir verarbeiten alles auf dem Gerät.“ Mit Gemini wird jedoch zwangsläufig ein Teil der Verarbeitung in die Cloud von Google verlagert. Apple sagt, sie werden „Private Cloud Compute“ verwenden, um Daten zu sichern, aber die Wahrnehmung ist anders, wenn deine Daten die Google-Infrastruktur berühren.
Was Apple Intelligence Tatsächlich Heute Kann
Wenn man den Hype und die Verzögerungen abzieht, sieht man, was Apple Intelligence tatsächlich jetzt Anfang 2026 kann:
Schreibwerkzeuge. Texte umschreiben, Korrektur lesen und zusammenfassen in jeder App. Diese funktionieren gut und laufen auf dem Gerät. Wahrscheinlich die nützlichste Apple Intelligence-Funktion, die heute verfügbar ist.
Bildgenerierung (Image Playground). Erstelle cartoonartige Bilder aus Textaufforderungen. Es macht Spaß, ist aber begrenzt – kein fotorealistisches Ergebnis, keine feine Steuerung. Eher ein Partytrick als ein Produktivitätswerkzeug.
Benachrichtigung Zusammenfassungen. KI-generierte Zusammenfassungen von Benachrichtigungsstapeln. Mal so, mal so. Manchmal hilfreich, manchmal urkomisch falsch (der BBC News-Zusammenfassungsvorfall war der Höhepunkt der Komik).
Fotosuche und -bereinigung. Natürliche Sprachsuche für Fotos („zeige mir Fotos vom Strand letzten Sommer“) und Objektentfernung. Beides funktioniert überraschend gut.
Grundlegende Siri-Verbesserungen. Besseres Verständnis natürlicher Sprache, Bildschirmbewusstsein, etwas ChatGPT-Integration für komplexe Anfragen. Aber das große Upgrade für konversationsbasierte KI? Kommt noch.
Für Entwickler, die auf Apples Plattform aufbauen, ist die aktuelle API-Oberfläche begrenzt. Du hast Zugriff auf das Rahmenwerk der Schreibwerkzeuge und einige aufgerätliche ML-Funktionen über Core ML, aber es gibt keine allgemeine LLM-API, die vergleichbar ist mit dem, was Google mit Gemini oder OpenAI durch ihr SDK bietet.
Die Konkurrenz Wartet Nicht
Während Apple verzögert, bringt jeder andere seine Produkte auf den Markt.
Google hat Gemini in Android, Chrome, Workspace und im Grunde allem anderen eingebaut. Ihr auf dem Gerät laufendes Gemini Nano läuft auf Pixel-Telefonen und bearbeitet Aufgaben, die Apple Intelligence noch nicht bewältigen kann.
Samsung hat Galaxy-KI-Funktionen Monate bevor Apple Intelligence auf den Markt kam, veröffentlicht, und ihre neueste Galaxy S26-Serie bietet Echtzeitübersetzung, KI-Fotobearbeitung und einen Gemini-unterstützten Assistenten, der tatsächlich funktioniert.
Microsoft hat Copilot überall — Windows, Office, Edge, sogar die Tastatur. Egal ob man es mag oder nicht, es wird schnell ausgeliefert und weiterentwickelt.
Apples Strategie „Wir nehmen uns Zeit und machen es richtig“ hat funktioniert, als sie den Takt vorgaben. Wenn man aber zwei Jahre hinter einer versprochenen Funktion hinterherhinkt, beginnt Geduld wie Unfähigkeit auszusehen.
Was Das Für Entwickler Bedeutet
Setze nicht auf Apple Intelligence APIs für kritische Funktionen. Die Plattform entwickelt sich immer noch zu schnell. Was in iOS 26.4 ausgeliefert wird, könnte in iOS 27 ganz anders aussehen, sobald die Gemini-Integration erfolgt.
Core ML ist nach wie vor solide. Für Inferenz auf dem Gerät — Bildklassifikation, NLP, benutzerdefinierte Modelle — bleibt Core ML ausgezeichnet. Apples Neural Engine Hardware ist wirklich erstklassig für ML-Arbeitslasten auf dem Gerät.
Achte genau auf die Gemini-Integration. Wenn Apple Funktionen auf Gemini-Niveau über eine Entwickler-API freischaltet, wäre das ein bedeutender Umbruch für iOS-Apps. Stell dir Siri-Shortcuts vor, die über komplexe mehrstufige Aufgaben nachdenken können, oder App-Intents, die nuancierte natürliche Sprache verstehen.
Plattformübergreifende KI ist die sichere Wette. Bis sich die KI-Geschichte von Apple stabilisiert, gibt dir die Entwicklung auf OpenAIs API, Googles Gemini API oder Anthropic’s Claude API mehr Kontrolle und weniger Abhängigkeiten von der Plattform.
Die Ehrliche Einschätzung
Apples KI-Strategie im Jahr 2026 ist eine seltsame Mischung aus echtem technischem Können und frustrierenden Ausführungsverzögerungen. Die Hardware ist da — die M-Serie und A-Serie Chips sind Monsters bei ML-Arbeitslasten. Die Datenschutzgeschichte auf dem Gerät ist überzeugend. Die Schreibwerkzeuge und Fotofunktionen sind tatsächlich nützlich.
Aber die Flaggschiff-Funktion — die KI-gesteuerte Siri, die alles ändern sollte — lässt weiterhin auf sich warten. Und die Entscheidung, mit Google für die zugrunde liegenden Modelle zu partnern, ist zwar pragmatisch, untergräbt die Erzählung „Wir machen alles selbst“, die Apple-Fans lieben.
Meine Vorhersage: Wenn die Gemini-unterstützte Siri endlich ausgeliefert wird (wahrscheinlich im September 2026 mit iOS 27), wird sie gut sein. Vielleicht sogar großartig. Aber bis dahin werden Google und Samsung zum nächsten Ding übergegangen sein, und Apple wird weiterhin aufholen.
Das reichste Unternehmen der Welt sollte in dieser wichtigen technologischen Umstellung nicht so weit zurückliegen. Und doch sind wir hier.
🕒 Published: