Google dévoile Gemini 2.5 Pro Deep Think, surpassant les modèles O3 et O4 d’OpenAI

Google dévoile Gemini 2.5 Pro Deep Think, surpassant les modèles O3 et O4 d’OpenAI

Google I/O 2025 : Présentation des améliorations majeures de la série Gemini 2.5

Lors du récent événement Google I/O 2025, Google a présenté les avancées significatives de sa gamme Gemini 2.5, notamment l’introduction du mode Deep Think Gemini 2.5 Pro. Cette innovation promet de surpasser les performances des dernières séries de modèles o3 et o4 d’OpenAI dans les principaux benchmarks d’IA, marquant ainsi une avancée majeure dans le domaine de l’intelligence artificielle.

Améliorations des capacités de raisonnement

Bien qu’aucune mise à jour n’ait été annoncée pour le modèle Gemini 2.5 Pro, qui a récemment bénéficié d’importantes améliorations, le lancement du mode « Réflexion profonde » marque un tournant dans ses capacités de raisonnement. Ce nouveau mode utilise des techniques de recherche avancées pour évaluer plusieurs hypothèses avant de générer une réponse, permettant ainsi une compréhension et une résolution de problèmes plus approfondies.

Performances de référence de 2.5 Pro Deep Think

Google a révélé des résultats de référence impressionnants pour le mode Deep Think du Gemini 2.5 Pro, établissant de nouvelles normes d’excellence :

  • 49, 4 % sur les critères mathématiques USAMO 2025.
  • 80, 4 % sur le benchmark de codage de niveau compétition LiveCodeBench.
  • 84, 0 % au benchmark de raisonnement multimodal MMMU.

Ces avancées positionnent le mode Deep Think 2.5 Pro comme un outil de pointe (SOTA), dépassant les capacités des offres actuelles d’OpenAI. L’accès à ce modèle avancé sera initialement réservé aux testeurs de confiance via l’API Gemini.

Présentation de Gemini 2.5 Flash

Outre les mises à jour de la version 2.5 Pro, Google a présenté le modèle Gemini 2.5 Flash, conçu pour une utilisation économique. Ce modèle Flash a démontré des améliorations de performances sur tous les benchmarks clés par rapport à son prédécesseur. Les développeurs peuvent le prévisualiser dans Google AI Studio, Vertex AI pour les applications d’entreprise et l’application Gemini. Son déploiement à plus grande échelle est prévu pour juin.

Améliorations de l’expérience du développeur

Afin d’améliorer la plateforme Gemini pour les développeurs, Google a également annoncé plusieurs améliorations clés :

  • Un nouvel aperçu de l’API Live qui prend en charge plusieurs locuteurs, facilitant les fonctionnalités de synthèse vocale avec deux voix via une sortie audio native.
  • Intégration des définitions du protocole de contexte de modèle (MCP) dans l’API Gemini pour une interopérabilité transparente avec les outils open source.
  • La disponibilité générale de Gemini 2.5 Pro avec des budgets réfléchis, bientôt prêt pour des applications de production stables.
  • Les capacités de calcul du projet Mariner seront intégrées à l’API Gemini et à Vertex AI.
  • Les modèles 2.5 Pro et Flash fourniront désormais des résumés de réflexion via l’API Gemini et Vertex AI.

Pour des informations plus détaillées sur ces développements, vous pouvez consulter l’annonce ici.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *