Hier ist das Problem mit Apple und KI: Es ist das reichste Technologieunternehmen auf dem Planeten, und es holt trotzdem noch auf. Im März 2026 ist dieser Rückstand deutlicher denn je.
Die Situation von Siri wird peinlich
Apple hat seinen großen KI-Einsatz – Apple Intelligence – auf der WWDC 2024 angekündigt. Der Mittelpunkt sollte ein völlig neu gestalteter Siri sein, der von großen Sprachmodellen angetrieben wird, in der Lage ist, den Kontext zu verstehen, mehrstufige Aufgaben zu bewältigen und zum ersten Mal seit zehn Jahren wirklich nützlich zu sein.
Das war vor fast zwei Jahren. Der neue Siri ist immer noch nicht da.
Laut Bloomberg wurde die KI-gestützte Neugestaltung von Siri erneut verschoben. Sie sollte mit iOS 26.4 im März 2026 eingeführt werden. Jetzt wird sie frühestens auf Mai verschoben, wobei einige Funktionen möglicherweise erst mit iOS 27 im September verfügbar sein werden. Die Gründe? Der neue Siri ist zu langsam, hat Schwierigkeiten mit komplexen Befehlen und integriert sich nicht gut mit Apples eigenen KI-Modellen.
Für ein Unternehmen, das im letzten Jahr 30 Milliarden Dollar in F&E investiert hat, ist das ein harter Blick.
Die Partnerschaft mit Google Gemini verändert alles
Die größte KI-Nachricht von Apple in diesem Jahr ist nicht etwas, das das Unternehmen selbst geschaffen hat – es ist etwas, das es gekauft hat. Apple und Google haben angekündigt, dass die nächste Generation von Apples Grundmodellen auf der Gemini-Architektur von Google und seiner Cloud-Infrastruktur basieren wird.
Lasst das sacken. Apple, das Unternehmen, das seine Marke auf vertikaler Integration und Kontrolle jeder Schicht des Stapels aufgebaut hat, lagert das Gehirn seines KI-Assistenten an Google aus.
Aus der Sicht eines API-Entwicklers ist das faszinierend. Das bedeutet:
Die Fähigkeiten von Siri werden auf Gemini-Niveau sein. Das ist ein massives Upgrade im Vergleich zu dem, was Apple intern vorbereitet hat. Gemini kann multimodale Eingaben, komplexes Denken und langanhaltende Gespräche bewältigen. Wenn es Apple tatsächlich gelingt, diese Integration zu liefern, wird Siri von einem Witz zu einem legitimen Konkurrenten über Nacht.
Die API-Geschichte für Entwickler wird kompliziert. Die APIs von Apple Intelligence ermöglichen es Entwicklern derzeit, Modelle auf dem Gerät für Dinge wie Textzusammenfassungen und Bildverständnis zu integrieren. Aber wenn das Backend jetzt Gemini ist, was passiert dann mit der API-Oberfläche? Werden Entwickler über das SDK von Apple Zugriff auf Gemini-Niveau-Fähigkeiten haben? Oder wird Apple die guten Dinge hinter Siri abschließen?
Die Datenschutzansprüche benötigen einen Hinweis. Die gesamte KI-Rhetorik von Apple war „Wir verarbeiten alles auf dem Gerät.“ Mit Gemini im Mix werden einige Verarbeitungen unvermeidlich in die Google-Cloud verlagert. Apple sagt, dass es „private Cloud-Computing“ nutzen wird, um die Daten sicher zu halten, aber die Wahrnehmung ist anders, wenn Ihre Daten die Infrastruktur von Google berühren.
Was Apple Intelligence tatsächlich heute kann
Entfernen Sie die Aufregung und die Verzögerungen, und hier ist, was Apple Intelligence Anfang 2026 tatsächlich leisten kann:
Schreibwerkzeuge. Texte in jeder Anwendung umschreiben, korrigieren und zusammenfassen. Das funktioniert gut und erfolgt auf dem Gerät. Wahrscheinlich die nützlichste Funktion von Apple Intelligence, die heute verfügbar ist.
Bildgenerierung (Image Playground). Erstellen von Cartoon-Bildern aus Textsätzen. Es macht Spaß, ist aber begrenzt – keine fotorealistische Ausgabe, keine feine Kontrolle. Mehr ein Zaubertrick als ein Produktivitätswerkzeug.
Benachrichtigungszusammenfassungen. KI-generierte Zusammenfassungen von Benachrichtigungsstapeln. Manchmal nützlich, manchmal weitgehend falsch (der Vorfall mit der BBC News-Zusammenfassung war der Höhepunkt der Komödie).
Foto-Suche und -Bereinigung. Fotos in natürlicher Sprache suchen („Zeigen Sie mir Fotos vom Strand letzten Sommer“) und Objekte entfernen. Beides funktioniert überraschend gut.
Grundlegende Verbesserungen von Siri. Bessere natürliche Sprachverständnis, Bildschirmbewusstsein, Integration von ChatGPT für komplexe Anfragen. Aber das große konversationelle KI-Upgrade? Immer noch ausstehend.
Für Entwickler, die auf der Plattform von Apple aufbauen, ist die aktuelle API-Oberfläche begrenzt. Sie haben Zugriff auf das Framework der Schreibwerkzeuge und einige ML-Fähigkeiten auf dem Gerät über Core ML, aber es gibt keine allgemeinen LLM-APIs, die mit dem vergleichbar sind, was Google mit Gemini bietet oder was OpenAI über sein SDK bereitstellt.
Die Konkurrenz wartet nicht
Während Apple verzögert, versenden alle anderen.
Google hat Gemini in Android, Chrome, Workspace und praktisch alles andere integriert. Ihr Gemini Nano auf dem Gerät funktioniert auf Pixel-Telefonen und bewältigt Aufgaben, die Apple Intelligence noch nicht erreichen kann.
Samsung hat Galaxy AI-Funktionen Monate vor der Verfügbarkeit von Apple Intelligence eingeführt, und ihre neueste Galaxy S26-Serie hat eine Echtzeitübersetzung, eine KI-Fotobearbeitung und einen von Gemini betriebenen Assistenten, der tatsächlich funktioniert.
Microsoft hat Copilot überall – Windows, Office, Edge, sogar die Tastatur. Ob man es mag oder nicht, es funktioniert und entwickelt sich schnell weiter.
Die Strategie von Apple „Wir nehmen uns Zeit und machen es gut“ hat funktioniert, als sie das Tempo vorgaben. Wenn Sie jedoch zwei Jahre hinter einer versprochenen Funktion zurückliegen, beginnt Geduld wie Inkompetenz auszusehen.
Was das für Entwickler bedeutet
Wenn Sie Anwendungen für das Apple-Ökosystem entwickeln, hier sind die wichtigsten Punkte:
Setzen Sie noch nicht auf die APIs von Apple Intelligence für kritische Funktionen. Die Plattform entwickelt sich noch zu schnell. Was mit iOS 26.4 eingeführt wird, könnte in iOS 27 nach der Gemini-Integration völlig anders aussehen.
Core ML bleibt stark. Für Inferenz auf dem Gerät – Bildklassifikation, NLP, benutzerdefinierte Modelle – bleibt Core ML hervorragend. Die Hardware von Apple, der Neural Engine, ist wirklich die beste ihrer Klasse für ML-Arbeitslasten auf dem Gerät.
Beobachten Sie die Integration von Gemini genau. Wenn Apple Gemini-Niveau-Fähigkeiten über eine Entwickler-API bereitstellt, wird das eine signifikante Veränderung für iOS-Anwendungen sein. Stellen Sie sich Siri-Shortcuts vor, die in der Lage sind, über komplexe mehrstufige Aufgaben nachzudenken, oder Anwendungsintents, die nuanciertes natürliches Sprachverständnis haben.
Plattformübergreifende KI ist eine sicherere Wette. Bis sich die KI-Geschichte von Apple stabilisiert, gibt Ihnen die Entwicklung auf der OpenAI-API, der Gemini-API von Google oder der Claude-API von Anthropic mehr Kontrolle und weniger Abhängigkeiten von der Plattform.
Ehrliche Bewertung
Die KI-Strategie von Apple im Jahr 2026 ist eine seltsame Mischung aus echter technischer Fähigkeit und frustrierenden Ausführungsverzögerungen. Die Hardware ist vorhanden – die M- und A-Chips sind echte Monster für ML-Arbeitslasten. Die Geschichte des Datenschutzes auf dem Gerät ist überzeugend. Die Schreibwerkzeuge und Fotofunktionen sind wirklich nützlich.
Aber die Hauptfunktion – der KI-gestützte Siri, der alles verändern sollte – rutscht weiterhin weg. Und die Entscheidung, sich mit Google für die zugrunde liegenden Modelle zusammenzuschließen, obwohl pragmatisch, untergräbt die Erzählung „Wir machen alles selbst“, die Apple-Fans lieben.
Meine Vorhersage: Wenn der von Gemini unterstützte Siri endlich gestartet wird (wahrscheinlich im September 2026 mit iOS 27), wird er gut sein. Vielleicht sogar großartig. Aber bis dahin werden Google und Samsung bereits weitergezogen sein, und Apple wird weiterhin aufholen.
Das reichste Unternehmen der Welt sollte bei der wichtigsten technologischen Veränderung des letzten Jahrzehnts nicht so im Rückstand sein. Und doch sind wir hier.
🕒 Published: