A questão sobre a Apple e a IA é a seguinte: eles são a empresa de tecnologia mais rica do planeta, e de alguma forma ainda estão correndo atrás. Em março de 2026, essa diferença é mais visível do que nunca.
A Situação da Siri Está Ficando Embaraçosa
A Apple anunciou seu grande impulso em IA — Apple Intelligence — durante a WWDC 2024. O destaque deveria ser uma Siri totalmente reformulada, alimentada por grandes modelos de linguagem, capaz de entender o contexto, lidar com tarefas de múltiplos passos e realmente ser útil pela primeira vez em uma década.
Isso foi há quase dois anos. A nova Siri ainda não chegou.
De acordo com a Bloomberg, a reformulação da Siri com IA foi adiada novamente. Ela deveria ser lançada com iOS 26.4 em março de 2026. Agora, foi adiada para maio no melhor das hipóteses, com alguns recursos possivelmente não chegando até o iOS 27 em setembro. Os motivos? A nova Siri é muito lenta, tem dificuldades com comandos complexos e não se integra bem com os próprios modelos de IA da Apple.
Para uma empresa que gastou 30 bilhões de dólares em P&D no ano passado, essa é uma visão dura.
A Parceria com o Google Gemini Muda Tudo
A maior novidade da Apple em IA este ano não é algo que a Apple construiu — é algo que eles compraram. A Apple e o Google anunciaram que a próxima geração de Apple Foundation Models será baseada na arquitetura Gemini do Google e na infraestrutura em nuvem.
Deixe isso assentar. A Apple, a empresa que construiu sua marca com integração vertical e controlando cada camada da pilha, está terceirizando o cérebro de seu assistente de IA para o Google.
Do ponto de vista de um desenvolvedor de API, isso é fascinante. Isso significa:
As capacidades da Siri serão da classe Gemini. Isso é um grande avanço em relação ao que a Apple estava desenvolvendo internamente. O Gemini pode lidar com entradas multimodais, raciocínio complexo e conversas de longo contexto. Se a Apple realmente conseguir fazer essa integração funcionar, a Siri passará de uma piada para uma concorrente legítima da noite para o dia.
A história da API para desenvolvedores se complica. As APIs da Apple Intelligence atualmente permitem que os desenvolvedores integrem com modelos em dispositivo para coisas como resumo de texto e entendimento de imagem. Mas se o backend agora é o Gemini, o que acontece com a superfície da API? Os desenvolvedores terão acesso a capacidades de nível Gemini através do SDK da Apple? Ou a Apple mantém as coisas boas trancadas atrás da Siri?
As alegações de privacidade precisam de um asterisco. Todo o discurso de IA da Apple tem sido “processamos tudo no dispositivo.” Com o Gemini envolvido, algum processamento inevitavelmente será movido para a nuvem do Google. A Apple diz que usará “Private Cloud Compute” para manter os dados seguros, mas a percepção é diferente quando seus dados tocam na infraestrutura do Google.
O Que a Apple Intelligence Pode Fazer Hoje
Deixando de lado as expectativas e os atrasos, aqui está o que a Apple Intelligence pode realmente fazer neste início de 2026:
Ferramentas de escrita. Reescrever, revisar e resumir texto em qualquer aplicativo. Elas funcionam bem e rodam no dispositivo. Provavelmente, o recurso mais útil da Apple Intelligence disponível hoje.
Geração de imagens (Image Playground). Criar imagens em estilo de cartoon a partir de comandos de texto. É divertido, mas limitado — sem saída fotorealista, sem controle sofisticado. Mais uma brincadeira do que uma ferramenta de produtividade.
Resumos de notificações. Resumos gerados por IA de pilhas de notificações. Às vezes funciona, às vezes é hilariamente errado (o incidente do resumo da BBC News foi o auge da comédia).
Busca e limpeza de fotos. Busca de fotos em linguagem natural (“mostre-me fotos da praia no verão passado”) e remoção de objetos. Ambos funcionam surpreendentemente bem.
Melhorias básicas na Siri. Melhor entendimento de linguagem natural, consciência na tela, alguma integração com o ChatGPT para consultas complexas. Mas a grande atualização de IA conversacional? Ainda está a caminho.
Para os desenvolvedores que constroem na plataforma da Apple, a superfície atual da API é limitada. Você tem acesso ao framework de ferramentas de escrita e algumas capacidades de ML em dispositivo através do Core ML, mas não há uma API LLM de uso geral comparável ao que o Google oferece com o Gemini ou o que a OpenAI fornece através de seu SDK.
A Concorrência Não Está Esperando
Enquanto a Apple atrasa, todos os outros lançam.
Google integrou o Gemini no Android, Chrome, Workspace e basicamente em tudo. O Gemini Nano em dispositivo roda em telefones Pixel e realiza tarefas que a Apple Intelligence ainda não consegue atender.
Samsung lançou recursos de IA no Galaxy meses antes do lançamento da Apple Intelligence, e sua mais recente série Galaxy S26 tem tradução em tempo real, edição de fotos com IA e um assistente alimentado pelo Gemini que realmente funciona.
Microsoft tem o Copilot em todo lugar — Windows, Office, Edge, até no teclado. Ame ou odeie, ele está sendo lançado e iterado rapidamente.
A estratégia da Apple de “vamos demorar e acertar” funcionou quando eles estavam definindo o ritmo. Quando você está dois anos atrasado em um recurso prometido, a paciência começa a parecer incompetência.
O Que Isso Significa para os Desenvolvedores
Se você está construindo aplicativos para o ecossistema da Apple, aqui estão as conclusões práticas:
Não aposte nas APIs da Apple Intelligence para recursos críticos ainda. A plataforma ainda está evoluindo rápido demais. O que for lançado no iOS 26.4 pode parecer completamente diferente no iOS 27 assim que a integração com o Gemini acontecer.
Core ML ainda é sólido. Para inferência em dispositivo — classificação de imagens, NLP, modelos personalizados — o Core ML continua excelente. O hardware do Neural Engine da Apple é genuinamente o melhor da categoria para cargas de trabalho de ML em dispositivo.
Observe a integração do Gemini de perto. Se a Apple expuser capacidades de nível Gemini através de uma API para desenvolvedores, isso será uma mudança significativa para aplicativos iOS. Imagine Siri Shortcuts que podem raciocinar sobre tarefas complexas de múltiplos passos, ou intenções de aplicativos que compreendem linguagem natural sutil.
IA multiplataforma é a aposta mais segura. Até que a história da IA da Apple se estabilize, construir sobre a API da OpenAI, a API do Gemini do Google ou a API Claude da Anthropic lhe dará mais controle e menos dependências de plataforma.
A Avaliação Honesta
A estratégia de IA da Apple em 2026 é uma mistura estranha de capacidade técnica genuína e atrasos de execução frustrantes. O hardware está lá — os chips da série M e da série A são monstros para cargas de trabalho de ML. A narrativa de privacidade em dispositivo é convincente. As ferramentas de escrita e os recursos de fotos são realmente úteis.
Mas o recurso principal — a Siri alimentada por IA que deveria mudar tudo — continua escapando. E a decisão de fazer parceria com o Google para os modelos subjacentes, embora pragmática, undermina a narrativa de “nós fazemos tudo sozinhos” que os fãs da Apple amam.
Minha previsão: quando a Siri alimentada pelo Gemini finalmente for lançada (provavelmente em setembro de 2026 com o iOS 27), será boa. Talvez até ótima. Mas até lá, o Google e a Samsung terão avançado para a próxima novidade, e a Apple ainda estará correndo atrás.
A empresa mais rica do mundo não deveria estar tão atrasada na mudança tecnológica mais importante da última década. E ainda assim, aqui estamos.
🕒 Published: