Aqui está a questão sobre a Apple e a IA: eles são a companhia de tecnologia mais rica do planeta e, de certa forma, ainda estão recuperando terreno. Em março de 2026, essa lacuna é mais evidente do que nunca.
A situação da Siri está se tornando embaraçosa
A Apple anunciou seu grande compromisso com a IA — Apple Intelligence — durante o WWDC 2024. O destaque deveria ser uma Siri totalmente reconstruída, alimentada por modelos de linguagem avançados, capaz de compreender o contexto, gerenciar tarefas complexas e se mostrar realmente útil pela primeira vez em uma década.
Isso foi há quase dois anos. A nova Siri ainda não chegou.
De acordo com a Bloomberg, a renovação da Siri apoiada pela IA foi novamente adiada. Ela deveria ser lançada com o iOS 26.4 em março de 2026. Agora, foi adiada para maio, no mínimo, com alguns recursos que podem não chegar até o iOS 27 em setembro. As razões? A nova Siri é muito lenta, tem dificuldade com comandos complexos e não se integra bem com os modelos de IA da Apple.
Para uma companhia que gastou 30 bilhões de dólares em P&D no ano passado, é um golpe duro.
A parceria com o Google Gemini muda tudo
A notícia mais importante sobre a IA da Apple este ano não é algo que a Apple construiu — é algo que eles compraram. A Apple e o Google anunciaram que a próxima geração de modelos base da Apple será baseada na arquitetura e na infraestrutura em nuvem do Gemini do Google.
Deixe isso assentar. A Apple, a empresa que construiu sua marca em torno de uma integração vertical e do controle de cada camada da pilha, está terceirizando o cérebro de seu assistente de IA para o Google.
Da perspectiva de um desenvolvedor de API, isso é fascinante. Significa:
As capacidades da Siri serão de classe Gemini. Isso representa uma enorme melhoria em relação ao que a Apple estava desenvolvendo internamente. O Gemini é capaz de lidar com entradas multimodais, raciocínio complexo e conversas de longo prazo. Se a Apple conseguir realmente implementar essa integração, a Siri passará de uma piada a um legítimo concorrente em um instante.
A questão das APIs para desenvolvedores se torna complicada. As APIs da Apple Intelligence atualmente permitem que os desenvolvedores se integrem com modelos no dispositivo para coisas como síntese de texto e compreensão de imagens. Mas se o backend agora é o Gemini, o que acontece com a superfície da API? Os desenvolvedores têm acesso a capacidades de nível Gemini através do SDK da Apple? Ou a Apple mantém as coisas boas trancadas atrás da Siri?
As alegações sobre privacidade precisam de um asterisco. A proposta de IA da Apple sempre foi “nós processamos tudo no dispositivo.” Com o Gemini na equação, parte do processamento inevitavelmente se mudará para a nuvem do Google. A Apple diz que usará “Private Cloud Compute” para manter os dados seguros, mas a impressão é diferente quando seus dados tocam a infraestrutura do Google.
O que a Apple Intelligence realmente faz hoje
Eliminando o hype e os atrasos, aqui está o que a Apple Intelligence pode fazer atualmente no início de 2026:
Ferramentas de escrita. Reescreva, corrija e resuma textos em qualquer aplicativo. Funcionam bem e operam no dispositivo. Provavelmente a funcionalidade mais útil da Apple Intelligence atualmente disponível.
Geração de imagens (Image Playground). Crie imagens em estilo de desenho animado a partir de prompts textuais. É divertido, mas limitado — sem saída fotorealista, sem controle fino. Mais um truque de festa do que uma ferramenta de produtividade.
Resumos de notificações. Resumos de pilhas de notificações gerados pela IA. Às vezes úteis, às vezes ridiculamente errados (o incidente do resumo da BBC News foi o auge da comédia).
Pesquisa e limpeza de fotos. Pesquise fotos em linguagem natural (“mostre-me fotos da praia no verão passado”) e remoção de objetos. Ambos funcionam surpreendentemente bem.
Aprimoramentos básicos da Siri. Melhor compreensão da linguagem natural, consciência na tela, algumas integrações de ChatGPT para consultas complexas. Mas a grande atualização da IA conversacional? Ainda está a caminho.
“`html
Para desenvolvedores que estão construindo na plataforma da Apple, a atual superfície da API é limitada. Você tem acesso ao framework das ferramentas de escrita e a algumas capacidades de ML no dispositivo através do Core ML, mas não há uma API LLM de uso geral comparável à que o Google oferece com o Gemini ou à que a OpenAI fornece através do seu SDK.
A concorrência não espera
Enquanto a Apple atrasa, todos os outros estão lançando seus produtos.
Google integrou o Gemini no Android, Chrome, Workspace e praticamente em todo o resto. O seu Gemini Nano no dispositivo funciona nos telefones Pixel e gerencia tarefas que a Apple Intelligence ainda não consegue lidar.
Samsung lançou recursos de IA Galaxy meses antes que a Apple Intelligence estivesse disponível, e sua última série Galaxy S26 tem tradução em tempo real, edição fotográfica de IA e um assistente alimentado pelo Gemini que realmente funciona.
Microsoft tem Copilot em toda parte — Windows, Office, Edge, até mesmo no teclado. Ame ou odeie, está avançando rapidamente e evoluindo.
A estratégia da Apple de “tomar nosso tempo e fazer as coisas direito” funcionou quando eram eles que ditavam o ritmo. Quando você está dois anos atrasado em uma funcionalidade prometida, a paciência começa a parecer incompetência.
O que isso significa para os desenvolvedores
Se você está criando aplicativos para o ecossistema da Apple, aqui está o que levar para casa:
Não aposte ainda nas APIs da Apple Intelligence para funcionalidades críticas. A plataforma ainda está evoluindo rapidamente demais. O que chegar no iOS 26.4 pode parecer completamente diferente no iOS 27 uma vez que a integração com o Gemini esteja completa.
Core ML ainda é sólido. Para a inferência no dispositivo — classificação de imagens, NLP, modelos personalizados — o Core ML permanece excelente. O hardware do Neural Engine da Apple é realmente o melhor da categoria para cargas de trabalho de ML no dispositivo.
Acompanhe de perto a integração com o Gemini. Se a Apple expor as capacidades de nível Gemini através de uma API para desenvolvedores, isso será uma mudança significativa para os aplicativos iOS. Imagine Siri Shortcuts que podem raciocinar sobre tarefas complexas em várias etapas, ou intenções de aplicativos que compreendem uma linguagem natural sutil.
A IA cross-platform é a aposta mais segura. Enquanto a história da IA da Apple não se estabiliza, construir na API da OpenAI, na API Gemini do Google ou na API Claude da Anthropic lhe dá mais controle e menores dependências da plataforma.
A avaliação honesta
A estratégia de IA da Apple em 2026 é uma mistura estranha de capacidades técnicas genuínas e atrasos executivos frustrantes. O hardware está presente — os chips das séries M e A são monstruosos para cargas de trabalho de ML. A questão da privacidade no dispositivo é convincente. As ferramentas de escrita e as funcionalidades fotográficas são realmente úteis.
Mas a funcionalidade de ponta — a Siri alimentada por IA que deveria mudar tudo — continua adiando. E a decisão de colaborar com o Google para os modelos subjacentes, embora pragmática, ameaça a narrativa de “fazemos tudo nós mesmos” que os fãs da Apple adoram.
Minha previsão: quando a Siri alimentada pelo Gemini finalmente chegar (provavelmente em setembro de 2026 com o iOS 27), será boa. Talvez até grandiosa. Mas a essa altura, Google e Samsung já estarão se movendo para a próxima novidade, e a Apple ainda estará correndo atrás.
A companhia mais rica do mundo não deveria estar tão atrasada em relação à mudança tecnológica mais importante de uma década. E ainda assim, aqui estamos.
“`
🕒 Published: