Microsoft revela o Windows AI Foundry: uma plataforma unificada de desenvolvimento de IA local

Microsoft revela o Windows AI Foundry: uma plataforma unificada de desenvolvimento de IA local

Microsoft revela o Windows AI Foundry: um avanço no desenvolvimento de IA local

A Microsoft deu passos significativos no aprimoramento dos recursos de IA no Windows com a introdução do Windows AI Foundry, anunciado na Build 2025. Aproveitando o Windows Copilot Runtime existente, esta nova plataforma unificada facilita o desenvolvimento de aplicativos de IA local, integrando várias funcionalidades de IA por meio do uso de APIs de IA do Windows e modelos de aprendizado de máquina que operam perfeitamente em segundo plano em PCs Copilot+.

Apresentando o Windows AI Foundry

O Windows AI Foundry combina o Windows Copilot Runtime com um conjunto de ferramentas inovadoras projetadas para desenvolvedores. Esta poderosa plataforma não apenas fornece APIs de IA prontas para uso, apoiadas pelos modelos de IA nativos da Microsoft, como também equipa os desenvolvedores com ferramentas para personalizar esses modelos. Além disso, permite a integração de modelos de código aberto originados do Azure AI Foundry, juntamente com um tempo de execução de inferência que permite aos desenvolvedores incorporar seus próprios modelos.

Integração flexível de modelos de IA

A introdução do Windows AI Foundry reflete o compromisso da Microsoft com a versatilidade no uso de modelos de IA. Os desenvolvedores têm acesso a uma gama diversificada de modelos por meio do Azure Foundry Local e outros catálogos importantes, como Ollama e NIMs da NVIDIA. O catálogo proprietário do Foundry Local da Microsoft garante que os modelos de IA sejam otimizados para desempenho em diversas configurações de hardware, incluindo CPUs, GPUs e NPUs. Um winget install Microsoft. FoundryLocalcomando simples permite que os desenvolvedores explorem, baixem e avaliem modelos compatíveis com seus dispositivos. Após a seleção do modelo, a integração do Foundry Local aos aplicativos é realizada sem esforço por meio do Foundry Local SDK.

Implantação eficiente de modelos com Windows ML

No centro desta iniciativa local de IA está o Windows ML, um ambiente de execução de inferência integrado que agiliza a implantação de modelos de aprendizado de máquina em diversas plataformas de hardware. Desenvolvido com base no DirectML, o Windows ML oferece suporte a arquiteturas de chipset de grandes fornecedores, incluindo AMD, Intel, NVIDIA e Qualcomm. Essa infraestrutura permite que os desenvolvedores se concentrem na criação de aplicativos de ponta sem o incômodo de futuras atualizações de silício, já que o Windows ML foi projetado para gerenciar dependências de forma eficaz e se ajustar automaticamente aos novos requisitos de hardware.

Ajuste fino aprimorado com suporte a LoRA

Em um avanço notável, a Microsoft também destacou seu novo suporte para LoRA (Low-Rank Adaptation) dentro da estrutura do modelo Phi Silica. Esse recurso permite que os desenvolvedores ajustem um subconjunto mínimo de parâmetros do modelo usando conjuntos de dados personalizados, aprimorando assim o desempenho em tarefas específicas. Atualmente em versão prévia pública, juntamente com o Windows App SDK 1.8 Experimental 2, o LoRA estará em breve disponível em PCs Intel e AMD Copilot+, aprimorando sua utilidade em todas as plataformas.

Revolucionando a pesquisa com APIs de pesquisa semântica

Para enriquecer ainda mais a experiência do desenvolvedor, a Microsoft anunciou novas APIs de Pesquisa Semântica que possibilitam a criação de funcionalidades avançadas de pesquisa orientadas por IA em aplicativos. Essas APIs facilitam a execução local e oferecem suporte à estrutura RAG (Retrieval-Augmented Generation), facilitando o aprimoramento dos recursos de pesquisa de seus aplicativos pelos desenvolvedores. Atualmente, essas APIs estão em versão de pré-visualização privada e disponíveis para todos os PCs Copilot+.

Para mais detalhes e atualizações sobre este desenvolvimento, visite a fonte oficial.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *