He aquí el asunto sobre Apple y la IA: son la compañía tecnológica más rica del planeta, y de alguna manera todavía están jugando a recuperar el tiempo perdido. En marzo de 2026, esa brecha es más visible que nunca.
La situación de Siri se está volviendo embarazosa
Apple anunció su gran impulso en IA — Apple Intelligence — en WWDC 2024. La pieza central se suponía que debía ser una Siri completamente reconstruida, impulsada por modelos de lenguaje grandes, capaz de entender el contexto, manejar tareas de varios pasos y ser realmente útil por primera vez en una década.
Eso fue hace casi dos años. La nueva Siri todavía no está aquí.
Según Bloomberg, la renovación de Siri impulsada por IA se ha retrasado nuevamente. Se suponía que se lanzaría con iOS 26.4 en marzo de 2026. Ahora se ha pospuesto para mayo como muy pronto, con algunas funciones que potencialmente no llegarían hasta iOS 27 en septiembre. Las razones? La nueva Siri es demasiado lenta, tiene dificultades con comandos complejos y no se integra bien con los propios modelos de IA de Apple.
Para una compañía que gastó 30 mil millones de dólares en I+D el año pasado, es una imagen difícil.
La asociación con Google Gemini cambia todo
La mayor noticia de IA de Apple este año no es algo que Apple construyó — es algo que compró. Apple y Google anunciaron que la próxima generación de Modelos Fundamentales de Apple se basará en la arquitectura y la infraestructura en la nube de Google Gemini.
Deja que eso se asiente. Apple, la empresa que construyó su marca sobre la integración vertical y el control de cada capa de la pila, está externalizando el cerebro de su asistente de IA a Google.
Desde la perspectiva de un desarrollador de API, esto es fascinante. Significa:
Las capacidades de Siri serán de clase Gemini. Eso es una mejora masiva con respecto a lo que Apple estaba cocinando internamente. Gemini puede manejar entradas multimodales, razonamiento complejo y conversaciones de largo contexto. Si Apple puede realmente lanzar esta integración, Siri pasará de ser una broma a un competidor legítimo de la noche a la mañana.
La historia de la API para desarrolladores se complica. Las APIs de Apple Intelligence actualmente permiten a los desarrolladores integrarse con modelos en el dispositivo para cosas como la resumición de texto y la comprensión de imágenes. Pero si el backend ahora es Gemini, ¿qué pasará con la superficie de la API? ¿Los desarrolladores tendrán acceso a capacidades de nivel Gemini a través del SDK de Apple? ¿O Apple mantendrá lo bueno encerrado detrás de Siri?
Las afirmaciones de privacidad necesitan un asterisco. Todo el argumento de IA de Apple ha sido “procesamos todo en el dispositivo.” Con Gemini en la mezcla, inevitablemente parte del procesamiento se moverá a la nube de Google. Apple dice que utilizarán “Private Cloud Compute” para mantener los datos seguros, pero las percepciones son diferentes cuando tus datos tocan la infraestructura de Google.
Lo que Apple Intelligence realmente puede hacer hoy
Deja a un lado la exageración y los retrasos, y aquí lo que Apple Intelligence puede hacer realmente en este momento a principios de 2026:
Herramientas de escritura. Reescribe, corrige y resume texto en cualquier aplicación. Estas funcionan bien y corren en el dispositivo. Probablemente la característica más útil de Apple Intelligence disponible hoy.
Generación de imágenes (Image Playground). Crea imágenes de estilo caricatura a partir de solicitudes de texto. Es divertido pero limitado — sin salida fotorrealista, sin control preciso. Más un truco de fiesta que una herramienta de productividad.
Resúmenes de notificaciones. Resúmenes generados por IA de pilas de notificaciones. Acierto o error. A veces útiles, a veces hilarantemente incorrectos (el incidente del resumen de BBC News fue comedia pura).
Búsqueda y limpieza de fotos. Búsqueda de fotos en lenguaje natural (“muéstrame fotos de la playa el verano pasado”) y eliminación de objetos. Ambas funcionan sorprendentemente bien.
Mejoras básicas de Siri. Mejor comprensión del lenguaje natural, conciencia en pantalla, alguna integración con ChatGPT para consultas complejas. Pero la gran actualización de IA conversacional? Todavía viene.
Para los desarrolladores que construyen en la plataforma de Apple, la superficie actual de la API es limitada. Tienes acceso al marco de herramientas de escritura y algunas capacidades de ML en el dispositivo a través de Core ML, pero no hay una API de LLM de propósito general comparable a lo que Google ofrece con Gemini o lo que OpenAI proporciona a través de su SDK.
La competencia no espera
Mientras Apple retrasa, todos los demás lanzan.
Google tiene Gemini integrado en Android, Chrome, Workspace y básicamente en todo lo demás. Su Gemini Nano en el dispositivo funciona en teléfonos Pixel y maneja tareas que Apple Intelligence aún no puede tocar.
Samsung lanzó características de Galaxy AI meses antes de que Apple Intelligence se presentara, y su última serie Galaxy S26 tiene traducción en tiempo real, edición de fotos por IA y un asistente impulsado por Gemini que realmente funciona.
Microsoft tiene Copilot en todas partes — Windows, Office, Edge, incluso el teclado. Te guste o no, está lanzando e iterando rápido.
La estrategia de Apple de “nos tomaremos nuestro tiempo y haremos las cosas bien” funcionó cuando ellos marcaban el ritmo. Cuando llegas dos años tarde en una función prometida, la paciencia comienza a parecer incompetencia.
Lo que esto significa para los desarrolladores
Si estás construyendo aplicaciones para el ecosistema de Apple, aquí tienes la conclusión práctica:
No apuestes aún por las APIs de Apple Intelligence para funciones críticas. La plataforma aún está evolucionando demasiado rápido. Lo que se lance en iOS 26.4 podría verse completamente diferente en iOS 27 una vez que llegue la integración de Gemini.
Core ML sigue siendo sólido. Para inferencias en el dispositivo — clasificación de imágenes, PLN, modelos personalizados — Core ML sigue siendo excelente. El hardware del Neural Engine de Apple es realmente el mejor de su clase para cargas de trabajo de ML en el dispositivo.
Observa la integración de Gemini de cerca. Si Apple expone capacidades de nivel Gemini a través de una API para desarrolladores, eso representará un cambio significativo para las aplicaciones de iOS. Imagina atajos de Siri que puedan razonar sobre tareas complejas de varios pasos, o intenciones de aplicaciones que entiendan un lenguaje natural matizado.
La IA multiplataforma es la apuesta más segura. Hasta que la historia de IA de Apple se estabilice, construir sobre la API de OpenAI, la API de Gemini de Google o la API Claude de Anthropic te dará más control y menos dependencias de la plataforma.
La evaluación honesta
La estrategia de IA de Apple en 2026 es una mezcla extraña de capacidad técnica genuina y frustrantes retrasos en la ejecución. El hardware está ahí — los chips de la serie M y A son monstruos para cargas de trabajo de ML. La historia de privacidad en el dispositivo es convincente. Las herramientas de escritura y las funciones de fotos son realmente útiles.
Pero la característica estrella — la Siri impulsada por IA que se suponía cambiaría todo — sigue retrasándose. Y la decisión de asociarse con Google para los modelos subyacentes, aunque pragmática, socava la narrativa de “hacemos todo nosotros mismos” que a los fans de Apple les encanta.
Mi predicción: cuando la Siri impulsada por Gemini finalmente se lance (probablemente en septiembre de 2026 con iOS 27), será buena. Tal vez incluso genial. Pero para entonces, Google y Samsung habrán pasado a la siguiente cosa, y Apple todavía estará intentando alcanzar el ritmo.
La compañía más rica del mundo no debería estar tan rezagada en el cambio tecnológico más importante de una década. Y, sin embargo, aquí estamos.
🕒 Published: