
Microsoft prezentuje Windows AI Foundry: krok naprzód w lokalnym rozwoju AI
Firma Microsoft poczyniła znaczące postępy w zakresie rozszerzania możliwości sztucznej inteligencji w systemie Windows, wprowadzając rozwiązanie Windows AI Foundry, ogłoszone na konferencji Build 2025. Wykorzystując istniejące środowisko uruchomieniowe Windows Copilot, ta nowa, ujednolicona platforma ułatwia lokalne opracowywanie aplikacji AI, integrując różne funkcje AI za pomocą interfejsów API Windows AI i modeli uczenia maszynowego, które płynnie działają w tle na komputerach Copilot+.
Przedstawiamy Windows AI Foundry
Windows AI Foundry łączy środowisko wykonawcze Windows Copilot z zestawem innowacyjnych narzędzi przeznaczonych dla deweloperów. Ta potężna platforma nie tylko zapewnia gotowe interfejsy API AI obsługiwane przez natywne modele AI firmy Microsoft, ale także wyposaża deweloperów w narzędzia do dostosowywania tych modeli. Ponadto umożliwia integrację modeli open source pochodzących z Azure AI Foundry, a także środowisko wykonawcze wnioskowania, które pozwala deweloperom na włączanie własnych modeli.
Elastyczna integracja modelu AI
Wprowadzenie Windows AI Foundry odzwierciedla zaangażowanie firmy Microsoft w uniwersalność w korzystaniu z modeli AI. Deweloperzy mają dostęp do szerokiej gamy modeli za pośrednictwem Azure Foundry Local i innych znanych katalogów, takich jak Ollama i NVIDIA NIM. Zastrzeżony katalog Foundry Local firmy Microsoft zapewnia, że modele AI są zoptymalizowane pod kątem wydajności w różnych konfiguracjach sprzętowych, w tym procesorów, procesorów graficznych i NPU. Proste winget install Microsoft. FoundryLocal
polecenie pozwala deweloperom eksplorować, pobierać i oceniać modele zgodne z ich urządzeniami. Po wyborze modelu integracja Foundry Local z aplikacjami odbywa się bez wysiłku za pośrednictwem zestawu Foundry Local SDK.
Efektywne wdrażanie modeli z systemem Windows ML
Sercem tej lokalnej inicjatywy AI jest Windows ML, wbudowane środowisko wykonawcze wnioskowania, które usprawnia wdrażanie modeli uczenia maszynowego na różnych platformach sprzętowych. Zbudowany na DirectML, Windows ML obsługuje architektury chipsetów od głównych dostawców, w tym AMD, Intel, NVIDIA i Qualcomm. Ta infrastruktura pozwala deweloperom skupić się na tworzeniu najnowocześniejszych aplikacji bez kłopotów z przyszłymi aktualizacjami krzemu, ponieważ Windows ML jest zaprojektowany tak, aby skutecznie zarządzać zależnościami i automatycznie dostosowywać się do nowych wymagań sprzętowych.
Ulepszone dostrajanie dzięki obsłudze LoRA
W godnym uwagi postępie Microsoft podkreślił również swoje nowe wsparcie dla LoRA (Low-Rank Adaptation) w ramach modelu Phi Silica. Ta funkcja pozwala deweloperom na dostrojenie minimalnego podzbioru parametrów modelu przy użyciu niestandardowych zestawów danych, zwiększając tym samym wydajność konkretnych zadań. Obecnie w publicznej wersji zapoznawczej wraz z Windows App SDK 1.8 Experimental 2, LoRA wkrótce będzie dostępna na komputerach Intel i AMD Copilot+, zwiększając jej użyteczność na różnych platformach.
Rewolucjonizowanie wyszukiwania dzięki interfejsom API wyszukiwania semantycznego
Aby jeszcze bardziej wzbogacić doświadczenie programistów, Microsoft ogłosił nowe interfejsy API wyszukiwania semantycznego, które umożliwiają tworzenie zaawansowanych funkcji wyszukiwania opartych na sztucznej inteligencji w aplikacjach. Te interfejsy API ułatwiają lokalne wykonywanie i obsługują strukturę RAG (Retrieval-Augmented Generation), ułatwiając programistom rozszerzanie możliwości wyszukiwania w ich aplikacjach. Obecnie te interfejsy API są dostępne w wersji zapoznawczej i dla wszystkich komputerów Copilot+.
Więcej szczegółów i aktualności na temat tego wydarzenia znajdziesz na oficjalnym źródle.
Dodaj komentarz