Microsoft presenta Windows AI Foundry: una piattaforma unificata per lo sviluppo di intelligenza artificiale locale

Microsoft presenta Windows AI Foundry: una piattaforma unificata per lo sviluppo di intelligenza artificiale locale

Microsoft presenta Windows AI Foundry: un passo avanti nello sviluppo dell’intelligenza artificiale locale

Microsoft ha compiuto passi da gigante nel potenziamento delle funzionalità di intelligenza artificiale su Windows con l’introduzione di Windows AI Foundry, annunciata al Build 2025. Sfruttando l’attuale Windows Copilot Runtime, questa nuova piattaforma unificata semplifica lo sviluppo di app di intelligenza artificiale locali, integrando varie funzionalità di intelligenza artificiale tramite l’uso di API di Windows AI e modelli di apprendimento automatico che operano in modo fluido in background sui PC Copilot+.

Presentazione di Windows AI Foundry

Windows AI Foundry integra Windows Copilot Runtime con una suite di strumenti innovativi progettati per gli sviluppatori. Questa potente piattaforma non solo fornisce API di intelligenza artificiale pronte all’uso supportate dai modelli di intelligenza artificiale nativi di Microsoft, ma fornisce anche agli sviluppatori gli strumenti per personalizzare tali modelli. Inoltre, consente l’integrazione di modelli open source provenienti da Azure AI Foundry, insieme a un runtime di inferenza che consente agli sviluppatori di incorporare i propri modelli.

Integrazione flessibile del modello AI

L’introduzione di Windows AI Foundry riflette l’impegno di Microsoft verso la versatilità nell’utilizzo dei modelli di intelligenza artificiale. Gli sviluppatori hanno accesso a un’ampia gamma di modelli tramite Azure Foundry Local e altri cataloghi di rilievo come Ollama e NVIDIA NIM. Il catalogo proprietario Foundry Local di Microsoft garantisce che i modelli di intelligenza artificiale siano ottimizzati per le prestazioni su diverse configurazioni hardware, tra cui CPU, GPU e NPU. Un semplice winget install Microsoft. FoundryLocalcomando consente agli sviluppatori di esplorare, scaricare e valutare i modelli compatibili con i propri dispositivi. Dopo la selezione del modello, l’integrazione di Foundry Local nelle applicazioni avviene senza problemi tramite l’SDK Foundry Local.

Distribuzione efficiente del modello con Windows ML

Al centro di questa iniziativa di intelligenza artificiale locale c’è Windows ML, un runtime di inferenza integrato che semplifica l’implementazione di modelli di apprendimento automatico su diverse piattaforme hardware. Basato su DirectML, Windows ML supporta le architetture dei chipset dei principali fornitori, tra cui AMD, Intel, NVIDIA e Qualcomm. Questa infrastruttura consente agli sviluppatori di concentrarsi sulla creazione di applicazioni all’avanguardia senza la preoccupazione di futuri aggiornamenti del chip, poiché Windows ML è progettato per gestire le dipendenze in modo efficace e adattarsi automaticamente ai nuovi requisiti hardware.

Ottimizzazione avanzata con supporto LoRA

Con un notevole progresso, Microsoft ha anche evidenziato il suo nuovo supporto per LoRA (Low-Rank Adaptation) all’interno del framework del modello Phi Silica. Questa funzionalità consente agli sviluppatori di ottimizzare un sottoinsieme minimo di parametri del modello utilizzando set di dati personalizzati, migliorando così le prestazioni in attività specifiche. Attualmente in anteprima pubblica insieme a Windows App SDK 1.8 Experimental 2, LoRA sarà presto disponibile su PC Intel e AMD Copilot+, migliorandone l’utilità su tutte le piattaforme.

Rivoluzionare la ricerca con le API di ricerca semantica

Per arricchire ulteriormente l’esperienza degli sviluppatori, Microsoft ha annunciato nuove API di Ricerca Semantica che consentono la creazione di funzionalità di ricerca avanzate basate sull’intelligenza artificiale all’interno delle applicazioni. Queste API facilitano l’esecuzione locale e supportano il framework RAG (Retrieval-Augmented Generation), semplificando il miglioramento delle funzionalità di ricerca delle applicazioni da parte degli sviluppatori. Attualmente, queste API sono in anteprima privata e disponibili per tutti i PC Copilot+.

Per ulteriori dettagli e aggiornamenti su questo sviluppo, visita la fonte ufficiale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *