
OpenAI lance o3-mini : une nouvelle avancée dans les modèles de raisonnement
OpenAI a officiellement présenté o3-mini, son modèle de raisonnement le plus récent et le plus rentable. Ce nouveau modèle est conçu pour exécuter des tâches avec une efficacité comparable à celle du célèbre modèle o1, excellant particulièrement dans des domaines tels que les mathématiques, le codage et le raisonnement scientifique. Les développeurs peuvent accéder à o3-mini via les API d’OpenAI qui offrent une prise en charge complète des appels de fonctions, des sorties structurées, du streaming, ainsi que de la messagerie des développeurs via l’API Chat Completions, l’API Assistants et l’API Batch.
Intégration avec Microsoft Azure
Parallèlement, Microsoft a annoncé que le modèle o3-mini sera également accessible via le service Microsoft Azure OpenAI. Les développeurs intéressés par l’exploitation de ce modèle avancé peuvent s’inscrire à Azure AI Foundry.
Avis d’experts sur le lancement
Yina Arenas, vice-présidente des produits Core AI chez Microsoft, a partagé ses réflexions sur le lancement de l’o3-mini, en déclarant :
o3-mini ajoute des économies de coûts significatives par rapport à o1-mini avec un raisonnement amélioré, avec de nouvelles fonctionnalités telles que le contrôle de l’effort de raisonnement et les outils, tout en offrant une réactivité comparable ou meilleure. Les capacités avancées d’o3-mini, combinées à ses gains d’efficacité, en font un outil puissant pour les développeurs et les entreprises qui cherchent à optimiser leurs applications d’IA.
Améliorations dans GitHub Copilot
De plus, GitHub de Microsoft a confirmé le déploiement d’o3-mini dans GitHub Copilot et GitHub Models pour les développeurs. Par rapport à son prédécesseur, o1-mini, les développeurs peuvent s’attendre à une qualité de sortie améliorée avec o3-mini. Ce modèle est accessible aux utilisateurs de GitHub Copilot Pro, Business et Enterprise via le sélecteur de modèles dans Visual Studio Code et sur le chat github.com, avec un support supplémentaire prévu pour Visual Studio et JetBrains dans les semaines à venir.
Pour les abonnés à GitHub Copilot, le nouveau o3-mini permettra aux utilisateurs de générer jusqu’à 50 messages toutes les 12 heures. De plus, les administrateurs de comptes GitHub Business ou Enterprise peuvent autoriser l’accès au modèle o3-mini pour les membres de leur équipe via leurs paramètres d’administration respectifs.
Opportunités d’exploration dans le terrain de jeu des modèles GitHub
GitHub est sur le point d’enrichir l’expérience des développeurs en introduisant l’o3-mini dans le terrain de jeu des modèles GitHub, offrant aux utilisateurs la possibilité d’explorer ses capacités et de les comparer avec les offres de Cohere, DeepSeek, Meta et Mistral.
Conclusion : une nouvelle ère pour le développement de l’IA
La large disponibilité du modèle o3-mini sur diverses plateformes permet aux développeurs d’intégrer efficacement ses capacités de raisonnement avancées dans leurs applications et services. Ce modèle innovant est sur le point de redéfinir les normes des capacités d’IA en développement.
Pour plus de détails, visitez la source.
Laisser un commentaire ▼