Phi-3.5-MoE da Microsoft compete com Gemini 1.5 Flash, agora acessível no Azure AI Studio e GitHub

Phi-3.5-MoE da Microsoft compete com Gemini 1.5 Flash, agora acessível no Azure AI Studio e GitHub

No mês passado, a Microsoft revelou a família de ponta Phi-3.5 de modelos leves de IA, que vêm com uma série de melhorias. O destaque entre eles é o Phi-3.5-MoE, marcando o primeiro modelo da série Phi a incorporar a tecnologia Mixture of Experts (MoE).

A Microsoft anunciou agora que o modelo Phi-3.5-MoE está prontamente disponível no Azure AI Studio e GitHub por meio de uma API sem servidor. Esse recurso permite que os desenvolvedores integrem perfeitamente o modelo Phi-3.5-MoE em seus fluxos de trabalho e aplicativos sem a necessidade de gerenciar nenhuma infraestrutura subjacente.

O modelo Phi-3.5-MoE, juntamente com outros modelos Phi-3.5, pode ser acessado em várias regiões, incluindo East US 2, East US, North Central US, South Central US, West US 3, West US e Sweden Central. Como uma oferta sem servidor, os desenvolvedores se beneficiam de uma estrutura de preços de pagamento por uso, que é definida em US$ 0,00013 por 1.000 tokens de entrada e US$ 0,00052 por 1.000 tokens de saída.

Em vários benchmarks de IA, o Phi-3.5-MoE demonstrou desempenho superior em relação a quase todos os outros modelos abertos em sua categoria, como Llama-3.1 8B, Gemma-2-9B e Mistral-Nemo-12B, notavelmente utilizando menos parâmetros ativos. A Microsoft afirma que seu desempenho rivaliza, se não supera ligeiramente, o Gemini-1.5-Flash do Google, um dos principais modelos de código fechado neste domínio.

Phi-35 MoE

O modelo MoE apresenta um total de 42 bilhões de parâmetros, dos quais apenas 6,6 bilhões são ativados, apoiados por 16 especialistas. A equipe da Microsoft Research projetou este modelo do zero para melhorar o desempenho, aumentar as capacidades multilíngues e reforçar os protocolos de segurança. Além disso, em vez de depender de técnicas de treinamento convencionais, a equipe da Microsoft Phi foi pioneira em um novo método de treinamento conhecido como GRIN (GRadient INformed) MoE. Essa abordagem levou a uma utilização de parâmetros significativamente melhorada e especialização de especialistas, alcançando resultados de qualidade significativamente mais altos em comparação com as modalidades de treinamento tradicionais.

Com suas métricas de desempenho e acessibilidade excepcionais, o Phi-3.5-MoE está pronto para capacitar desenvolvedores e impulsionar a inovação dentro do ecossistema de IA. Seu modelo sem servidor e preços baseados em consumo estão desmantelando ainda mais as barreiras de entrada, permitindo que mais desenvolvedores acessem recursos avançados de IA do que nunca.

Fonte: Microsoft

Fonte

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *