
Microsoft, Direct Preference Optimization으로 Azure AI Foundry 강화
Microsoft는 Azure OpenAI 서비스 API 및 SDK와 함께 Azure AI Foundry 포털을 크게 개선했습니다.최신 업데이트에는 GPT-4.1 및 GPT-4.1-mini 모두에 대한 직접 선호도 최적화(DPO)가 도입되었습니다.이 혁신적인 미세 조정 방식은 선호도와 비선호도 응답을 비교하여 사용자 선호도에 따라 모델 가중치를 조정할 수 있도록 합니다.
직접 선호도 최적화의 장점
DPO는 기존의 인간 피드백 기반 강화 학습(RLHF)에 대한 매력적인 대안을 제시합니다.주요 장점 중 하나는 모델을 사용자 기대치에 효과적으로 맞추면서도 컴퓨팅 파워와 시간을 크게 절감할 수 있다는 것입니다.기업은 이 방법을 활용하여 특정 브랜드 정체성, 안전 기준, 그리고 대화의 미묘한 차이를 더욱 잘 반영하도록 모델을 미세 조정할 수 있습니다.
글로벌 교육 확장
DPO 통합과 더불어, Microsoft는 Azure AI 글로벌 교육 기능을 12개 지역으로 확장했습니다.이번 확장에는 미국 동부, 서유럽, 영국 남부, 스위스 북부 등이 포함됩니다.하지만 이 이니셔티브는 아직 공개 미리보기 단계에 있다는 점에 유의해야 합니다.
앞으로의 전망: 곧 출시될 기능
Microsoft는 프로세스 일시 중지 및 재개 기능, 지속적인 미세 조정 지원 기능 등 사용자 경험을 향상시킬 향후 기능들을 기대하고 있습니다.또한, 새로 추가된 지역에 GPT-4.1-nano가 도입될 예정입니다.
데이터 주권 및 개인 정보 보호 고려 사항
글로벌 트레이닝의 확대는 데이터 주권과 관련하여 특히 중요합니다.최근 유럽 연합이 유럽 내 지역화된 데이터 관리를 옹호함에 따라, 강화된 개인정보 보호 및 규정 준수를 보장하는 것이 그 어느 때보다 중요해졌습니다.
Responses API 소개
개발자 편의를 위한 또 다른 조치로, Microsoft는 미세 조정된 모델에 맞춰진 새로운 Responses API를 출시했습니다.이 API는 다양한 애플리케이션 내 통합 가능성을 향상시키며, 특히 상태가 유지되는 다중 턴 대화가 필요한 워크플로에 유용합니다. Microsoft에 따르면, Responses API는 “백그라운드에서 모든 것을 자동으로 연결”하여 사용자 경험을 간소화합니다.
Responses API의 주요 기능
이 API는 다음을 포함한 다양한 기능을 제공합니다.
- 대화의 일관성을 강화하기 위한 맥락 유지.
- 답변 생성 시 모델 추론의 투명성.
- 응답이 공식화됨에 따라 사용자 진행 상황을 추적합니다.
- 백그라운드 처리와 웹 검색, 파일 조회 등의 도구와의 통합을 지원합니다.
이러한 업데이트에 대한 자세한 내용은 Azure AI 서비스에 대한 Microsoft 공식 블로그 게시물을 확인하세요.
이미지 출처: Depositphotos.com
답글 남기기