
Microsoft dévoile Windows AI Foundry : un bond en avant dans le développement de l’IA locale
Microsoft a fait des progrès significatifs dans l’amélioration des capacités d’IA sur Windows avec l’introduction de Windows AI Foundry, annoncée lors de la Build 2025. Tirant parti du Windows Copilot Runtime existant, cette nouvelle plate-forme unifiée facilite le développement d’applications d’IA locales, en intégrant diverses fonctionnalités d’IA grâce à l’utilisation d’API Windows AI et de modèles d’apprentissage automatique qui fonctionnent de manière transparente en arrière-plan sur les PC Copilot+.
Présentation de Windows AI Foundry
Windows AI Foundry associe Windows Copilot Runtime à une suite d’outils innovants conçus pour les développeurs. Cette puissante plateforme fournit non seulement des API d’IA prêtes à l’emploi, basées sur les modèles d’IA natifs de Microsoft, mais offre également aux développeurs des outils pour personnaliser ces modèles. De plus, elle permet l’intégration de modèles open source issus d’ Azure AI Foundry, ainsi qu’un environnement d’exécution d’inférence permettant aux développeurs d’intégrer leurs propres modèles.
Intégration flexible de modèles d’IA
L’introduction de Windows AI Foundry reflète l’engagement de Microsoft en faveur de la polyvalence des modèles d’IA. Les développeurs ont accès à une gamme variée de modèles via Azure Foundry Local et d’autres catalogues importants tels qu’Ollama et les NIM NVIDIA. Le catalogue propriétaire Foundry Local de Microsoft garantit l’optimisation des performances des modèles d’IA sur différentes configurations matérielles, notamment les processeurs, les GPU et les NPU. Une simple winget install Microsoft. FoundryLocal
commande permet aux développeurs d’explorer, de télécharger et d’évaluer les modèles compatibles avec leurs appareils. Une fois le modèle sélectionné, l’intégration de Foundry Local aux applications s’effectue facilement via le SDK Foundry Local.
Déploiement efficace de modèles avec Windows ML
Au cœur de cette initiative locale d’IA se trouve Windows ML, un environnement d’exécution d’inférence intégré qui simplifie le déploiement de modèles de machine learning sur diverses plateformes matérielles. Basé sur DirectML, Windows ML prend en charge les architectures de chipsets des principaux fournisseurs, notamment AMD, Intel, NVIDIA et Qualcomm. Cette infrastructure permet aux développeurs de se concentrer sur la création d’applications de pointe sans se soucier des futures mises à jour de puces, car Windows ML est conçu pour gérer efficacement les dépendances et s’adapter automatiquement aux nouvelles exigences matérielles.
Réglage fin amélioré avec prise en charge LoRA
Microsoft a également mis en avant sa nouvelle prise en charge de LoRA (Low-Rank Adaptation) dans le cadre du modèle Phi Silica. Cette fonctionnalité permet aux développeurs d’affiner un sous-ensemble minimal de paramètres du modèle à l’aide de jeux de données personnalisés, améliorant ainsi les performances sur des tâches spécifiques. Actuellement en préversion publique avec Windows App SDK 1.8 Experimental 2, LoRA sera bientôt accessible sur les PC Intel et AMD Copilot+, améliorant ainsi son utilité sur toutes les plateformes.
Révolutionner la recherche avec les API de recherche sémantique
Afin d’enrichir l’expérience des développeurs, Microsoft a annoncé de nouvelles API de recherche sémantique permettant la création de fonctionnalités de recherche avancées basées sur l’IA au sein des applications. Ces API facilitent l’exécution locale et prennent en charge le framework RAG (Retrieval-Augmented Generation), permettant ainsi aux développeurs d’optimiser les capacités de recherche de leurs applications. Actuellement, ces API sont en préversion privée et disponibles sur tous les PC Copilot+.
Pour plus de détails et de mises à jour sur ce développement, visitez la source officielle.
Laisser un commentaire