지난달, Microsoft는 다양한 개선 사항이 포함된 경량 AI 모델의 최첨단 Phi-3.5 제품군을 공개했습니다. 이 중 눈에 띄는 것은 Phi-3.5-MoE로, Mixture of Experts(MoE) 기술을 통합한 Phi 시리즈의 첫 번째 모델입니다.
Microsoft는 이제 Phi-3.5-MoE 모델이 서버리스 API를 통해 Azure AI Studio와 GitHub에서 쉽게 사용할 수 있다고 발표했습니다. 이 기능을 통해 개발자는 기본 인프라를 관리할 필요 없이 Phi-3.5-MoE 모델을 워크플로 및 애플리케이션에 원활하게 통합할 수 있습니다.
Phi-3.5-MoE 모델은 다른 Phi-3.5 모델과 함께 미국 동부 2, 미국 동부, 미국 중부 북부, 미국 중부 남부, 미국 서부 3, 미국 서부, 스웨덴 중부를 포함한 여러 지역에서 액세스할 수 있습니다. 서버리스 오퍼링으로서 개발자는 1,000개 입력 토큰당 $0.00013, 1,000개 출력 토큰당 $0.00052로 설정된 사용량에 따른 요금 구조의 이점을 누릴 수 있습니다.
다양한 AI 벤치마크에서 Phi-3.5-MoE는 Llama-3.1 8B, Gemma-2-9B, Mistral-Nemo-12B와 같은 해당 범주의 거의 모든 다른 오픈 모델에 비해 우수한 성능을 보였으며, 특히 활성 매개변수를 덜 활용했습니다. Microsoft는 성능이 이 도메인에서 선두적인 클로즈드 소스 모델 중 하나인 Google의 Gemini-1.5-Flash와 맞먹거나 약간 앞선다고 주장합니다.
MoE 모델은 총 420억 개의 매개변수를 특징으로 하며, 그 중 66억 개만 활성화되고 16명의 전문가가 지원합니다. Microsoft Research의 팀은 성능을 향상시키고, 다국어 기능을 늘리고, 안전 프로토콜을 강화하기 위해 이 모델을 처음부터 설계했습니다. 또한 Microsoft Phi 팀은 기존의 교육 기술에 의존하기보다는 GRIN(GRadient INformed) MoE라는 새로운 교육 방법을 개척했습니다. 이 접근 방식은 매개변수 활용과 전문가 전문화를 크게 개선하여 기존 교육 방식에 비해 현저히 높은 품질의 결과를 달성했습니다.
뛰어난 성능 지표와 접근성을 갖춘 Phi-3.5-MoE는 개발자에게 힘을 실어주고 AI 생태계 내에서 혁신을 주도할 준비가 되었습니다. 서버리스 모델과 소비 기반 가격은 진입 장벽을 더욱 허물어 이전보다 더 많은 개발자가 고급 AI 기능에 액세스할 수 있도록 합니다.
출처: Microsoft
답글 남기기