
Microsoft stellt Windows AI Foundry vor: Ein großer Schritt nach vorn in der lokalen KI-Entwicklung
Microsoft hat mit der Einführung von Windows AI Foundry, die auf der Build 2025 angekündigt wurde, bedeutende Fortschritte bei der Verbesserung der KI-Funktionen unter Windows gemacht. Diese neue einheitliche Plattform nutzt die vorhandene Windows Copilot Runtime und erleichtert die lokale Entwicklung von KI-Apps. Sie integriert verschiedene KI-Funktionen durch die Verwendung von Windows AI-APIs und Modellen für maschinelles Lernen, die auf Copilot+-PCs nahtlos im Hintergrund laufen.
Einführung von Windows AI Foundry
Windows AI Foundry kombiniert die Windows Copilot Runtime mit einer Reihe innovativer Tools für Entwickler. Diese leistungsstarke Plattform bietet nicht nur sofort einsatzbereite KI-APIs, die auf nativen KI-Modellen von Microsoft basieren, sondern stellt Entwicklern auch Tools zur Anpassung dieser Modelle zur Verfügung. Darüber hinaus ermöglicht sie die Integration von Open-Source-Modellen aus Azure AI Foundry sowie eine Inferenz-Runtime, mit der Entwickler eigene Modelle integrieren können.
Flexible KI-Modellintegration
Die Einführung von Windows AI Foundry unterstreicht Microsofts Engagement für die Vielseitigkeit der KI-Modellnutzung. Entwickler haben über Azure Foundry Local und andere namhafte Kataloge wie Ollama und NVIDIA NIMs Zugriff auf eine breite Modellpalette. Der Microsoft-eigene Foundry Local-Katalog stellt sicher, dass KI-Modelle für verschiedene Hardwarekonfigurationen, einschließlich CPUs, GPUs und NPUs, optimiert sind. Mit einem einfachen winget install Microsoft. FoundryLocal
Befehl können Entwickler kompatible Modelle für ihre Geräte erkunden, herunterladen und bewerten. Nach der Modellauswahl lässt sich Foundry Local mühelos über das Foundry Local SDK in Anwendungen integrieren.
Effiziente Modellbereitstellung mit Windows ML
Herzstück dieser lokalen KI-Initiative ist Windows ML, eine integrierte Inferenz-Runtime, die die Bereitstellung von Machine-Learning-Modellen auf verschiedenen Hardwareplattformen optimiert. Basierend auf DirectML unterstützt Windows ML Chipsatzarchitekturen namhafter Anbieter wie AMD, Intel, NVIDIA und Qualcomm. Dank dieser Infrastruktur können sich Entwickler auf die Entwicklung innovativer Anwendungen konzentrieren, ohne sich um zukünftige Chip-Updates kümmern zu müssen, da Windows ML darauf ausgelegt ist, Abhängigkeiten effektiv zu verwalten und sich automatisch an neue Hardwareanforderungen anzupassen.
Verbesserte Feinabstimmung mit LoRA-Unterstützung
Microsoft hob zudem die neue Unterstützung für LoRA (Low-Rank Adaptation) im Phi-Silica-Modell-Framework hervor. Diese Funktion ermöglicht es Entwicklern, eine minimale Teilmenge von Modellparametern mithilfe benutzerdefinierter Datensätze zu optimieren und so die Leistung bei bestimmten Aufgaben zu verbessern. LoRA befindet sich derzeit in der öffentlichen Vorschau zusammen mit dem Windows App SDK 1.8 Experimental 2 und wird bald sowohl auf Intel- als auch auf AMD Copilot+-PCs verfügbar sein, was den Nutzen plattformübergreifend erhöht.
Revolutionierung der Suche mit semantischen Such-APIs
Um das Entwicklererlebnis weiter zu verbessern, hat Microsoft neue Semantic Search APIs angekündigt, die die Erstellung erweiterter KI-gesteuerter Suchfunktionen in Anwendungen ermöglichen. Diese APIs erleichtern die lokale Ausführung und unterstützen das RAG-Framework (Retrieval-Augmented Generation), wodurch Entwickler die Suchfunktionen ihrer Anwendungen einfacher erweitern können. Diese APIs befinden sich derzeit in der privaten Vorschau und sind für alle Copilot+ PCs verfügbar.
Weitere Einzelheiten und Updates zu dieser Entwicklung finden Sie in der offiziellen Quelle.
Schreibe einen Kommentar