Em uma mudança notável de estratégia, a Apple parece ter reconhecido os desafios em sua reformulação interna da Siri e agora está colaborando com o Google para criar um Modelo de Linguagem Amplo (LLM, na sigla em inglês) personalizado, baseado no Gemini, para dar suporte à Siri atualizada na nuvem.
Mark Gurman relata a parceria da Apple com o Google para o aprimoramento da IA da Siri.
Segundo o renomado analista da Apple, Mark Gurman, em sua mais recente newsletter “Power On”, a Apple aparentemente admitiu que desenvolver um modelo de IA próprio e eficaz para a Siri não é viável no momento. Os recursos reformulados, conhecidos coletivamente como Apple Intelligence, agora serão suportados pela expertise em IA do Google.
A Apple estaria pagando ao Google para desenvolver um LLM personalizado, baseado no Gemini, para rodar na própria infraestrutura de computação em nuvem privada da Apple. Esses LLMs darão suporte à nova Siri personalizada e à busca na web com IA, e permanecerão completamente privados, como planejado originalmente. Fonte – @markgurman pic.twitter.com/KaRH0n0lof
-AppleLeaker (@LeakerApple) 3 de novembro de 2025
Nesse novo acordo, a Apple planeja utilizar os recursos avançados do Google para desenvolver um modelo de IA baseado no Gemini para integração em sua estrutura de computação em nuvem privada. Esse design permitirá que tarefas mais simples sejam processadas localmente, enquanto operações mais complexas serão transferidas para os servidores seguros da Apple usando dados criptografados.
Principais recursos da próxima reformulação da Siri
A atualização prevista da Siri consistirá em três componentes principais:
- Planejador de Consultas: Esta camada crítica gerencia como a Siri atende às solicitações do usuário, escolhendo o caminho mais eficiente, que pode envolver pesquisas na web, acesso a dados pessoais como eventos da agenda ou utilização de aplicativos de terceiros por meio de Intenções de Aplicativos — uma interface que permite a integração perfeita de aplicativos com a Siri.
 - Sistema de Busca de Conhecimento: A Siri incluirá um banco de dados de conhecimento abrangente, permitindo que ela responda a perguntas gerais de forma independente, eliminando a dependência de recursos externos de IA, como o ChatGPT.
 -  Resumo: Um elemento fundamental da Inteligência Artificial da Apple, esta ferramenta permitirá que a Siri utilize modelos de IA externos, como o ChatGPT, para resumir diversos tipos de conteúdo, incluindo: 
- Resumos de notificações
 - Resumos de e-mails e mensagens
 - Resumos de páginas da web no Safari
 - Auxílio na redação
 - Resumos do conteúdo de áudio
 
 
Nessa arquitetura futura, o processamento da Siri no dispositivo utilizará os modelos proprietários da Apple ou integrará IAs de terceiros, como o ChatGPT. Para consultas complexas, os dados serão enviados para os servidores privados da Apple, onde o modelo Gemini entrará em ação, garantindo a privacidade do usuário com criptografia sem estado.
Relatórios divulgados no início deste ano indicaram que a equipe de desenvolvimento da Apple enfrentou desafios para garantir a eficácia da Siri, principalmente em relação à integração de aplicativos e funções críticas em áreas sensíveis como a bancária.
Funcionalidades previstas para o iOS 26 e iOS 27
A Apple está no caminho certo para introduzir funcionalidades significativas como parte da atualização do iOS da primavera de 2026 (provavelmente iOS 26.4).Os principais recursos esperados incluem:
-  Ações no aplicativo: 
- A Siri executará tarefas contextuais em aplicativos compatíveis por meio de comandos de voz — ações como adicionar itens a uma lista de compras, enviar mensagens ou reproduzir música serão possíveis.
 
 -  Consciência do contexto pessoal: 
- A Siri utilizará dados pessoais de forma mais eficaz para oferecer serviços personalizados, como localizar podcasts mencionados em mensagens de texto.
 
 -  Consciência na tela: 
- A Siri ganhará a capacidade de entender o conteúdo exibido na tela, permitindo que ela execute tarefas relevantes de forma mais integrada.
 
 
Além disso, diversos recursos de IA já estão presentes no iOS 26, embora com escopo limitado. Entre eles:
- Tradução simultânea para o aplicativo Mensagens e durante chamadas do FaceTime.
 - Crie planos de fundo personalizados para conversas no aplicativo Mensagens usando o Image Playground.
 - Resumos de mensagens de correio de voz.
 - Funções de tradução em tempo real para AirPods.
 - Atalhos de ação dedicados com IA.
 - Desenvolvedores terceirizados podem utilizar os modelos fundamentais da Apple para recursos aprimorados.
 - Criação de imagens personalizadas via ChatGPT no Playground de Imagens.
 - Combinando emojis para criar um “Genmoji” no aplicativo Image Playground.
 - Informações visuais para capturas de tela.
 - Resumos de notificações.
 
Gurman também especula que, além dos novos recursos de IA que serão lançados com o iOS 26.4, a Apple revelará “atualizações significativas” no iOS 27 durante a Conferência Mundial de Desenvolvedores em junho de 2026.
Nota: Este artigo foi atualizado com informações adicionais sobre os recursos de IA no iOS 26.
		  
		  
		  
		  
Deixe um comentário