Apple sollicite l’aide de Google pour créer un LLM Gemini personnalisé pour Siri.

Apple sollicite l’aide de Google pour créer un LLM Gemini personnalisé pour Siri.

Dans un changement de stratégie notable, Apple semble avoir reconnu les difficultés rencontrées lors de la refonte interne de Siri et collabore désormais avec Google pour créer un modèle de langage étendu (LLM) personnalisé basé sur Gemini afin de prendre en charge la version mise à jour de Siri dans le cloud.

Mark Gurman révèle le partenariat d’Apple avec Google pour l’amélioration de l’IA de Siri.

D’après Mark Gurman, analyste réputé d’Apple, qui écrit dans sa dernière newsletter « Power On », Apple semble avoir admis qu’il est actuellement impossible de développer un modèle d’IA interne performant pour Siri. Les fonctionnalités remaniées, regroupées sous l’appellation Apple Intelligence, s’appuieront désormais sur l’expertise de Google en matière d’IA.

Dans le cadre de ce nouvel accord, Apple prévoit d’exploiter les capacités avancées de Google pour concevoir un modèle d’IA basé sur Gemini, destiné à être intégré à son infrastructure de cloud privé. Cette architecture permettra de traiter localement les tâches les plus simples, tandis que les opérations plus complexes seront déportées vers les serveurs sécurisés d’Apple via des données chiffrées.

Principales caractéristiques de la prochaine refonte de Siri

La mise à jour de Siri attendue comprendra trois composantes principales :

  1. Planificateur de requêtes : cette couche essentielle gère la manière dont Siri répond aux demandes des utilisateurs en choisissant le chemin le plus efficace, qui peut impliquer des recherches Web, l’accès à des données personnelles comme les événements du calendrier ou l’utilisation d’applications tierces via App Intents, une interface permettant une intégration transparente des applications avec Siri.
  2. Système de recherche de connaissances : Siri intégrera une base de connaissances exhaustive lui permettant de répondre de manière autonome à des questions de culture générale, éliminant ainsi la dépendance à des ressources d’IA externes comme ChatGPT.
  3. Résumé : Élément fondamental d’Apple Intelligence, cet outil permettra à Siri d’utiliser des modèles d’IA externes tels que ChatGPT pour résumer différents types de contenu, notamment :
    • Résumés des notifications
    • Résumés des courriels et des messages
    • Résumés de pages Web dans Safari
    • Aide à la rédaction
    • Résumés du contenu audio

Dans cette future architecture, le traitement embarqué de Siri s’appuiera soit sur les modèles propriétaires d’Apple, soit sur des IA tierces, comme ChatGPT. Pour les requêtes complexes, les données seront envoyées aux serveurs privés d’Apple où le modèle Gemini prendra le relais, garantissant la confidentialité des données de l’utilisateur grâce à un chiffrement sans état.

Des rapports publiés en début d’année indiquaient que l’équipe de développement d’Apple rencontrait des difficultés pour garantir l’efficacité de Siri, notamment en ce qui concerne l’intégration d’applications et les fonctions critiques dans des domaines sensibles comme les services bancaires.

Fonctionnalités attendues dans iOS 26 et iOS 27

Apple prévoit d’introduire des fonctionnalités importantes dans le cadre de sa mise à jour iOS du printemps 2026 (probablement iOS 26.4).Parmi les principales nouveautés attendues :

  1. Actions intégrées à l’application :
    • Siri effectuera des tâches contextuelles au sein des applications compatibles grâce à des commandes vocales : il sera possible d’ajouter des articles à une liste de courses, d’envoyer des messages ou de diffuser de la musique.
  2. Conscience du contexte personnel :
    • Siri utilisera plus efficacement les données personnelles pour offrir des services personnalisés, comme la recherche de podcasts mentionnés dans les SMS.
  3. Conscience à l’écran :
    • Siri sera désormais capable de comprendre le contenu affiché à l’écran, ce qui lui permettra d’exécuter les tâches pertinentes de manière plus fluide.

De plus, plusieurs fonctionnalités d’IA sont déjà présentes dans iOS 26, bien que leur portée soit limitée. Il s’agit notamment de :

  1. Traduction en direct pour l’application Messages et pendant les appels FaceTime.
  2. Arrière-plans personnalisés pour les conversations dans l’application Messages à l’aide d’Image Playground.
  3. Résumés des messages vocaux.
  4. Fonctions de traduction en temps réel pour AirPods.
  5. Raccourcis d’actions IA dédiés.
  6. Les développeurs tiers peuvent utiliser les modèles de base d’Apple pour des fonctionnalités améliorées.
  7. Création d’images personnalisées via ChatGPT dans l’espace de jeu d’images.
  8. Combiner des emojis pour créer un « Genmoji » dans l’application Image Playground.
  9. Analyse visuelle des captures d’écran.
  10. Résumés des notifications.

Gurman spécule également que, parallèlement aux nouvelles fonctionnalités d’IA déployées avec iOS 26.4, Apple dévoilera des « mises à jour importantes » dans iOS 27 lors de la Worldwide Developers Conference en juin 2026.

Remarque : Cet article a été mis à jour avec des informations supplémentaires concernant les fonctionnalités d’IA dans iOS 26.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *