OpenAI, Anthropic, Google의 최첨단 대규모 언어 모델(LLM) API는 일반적으로 만족스러운 답변을 제공합니다. 그러나 현재 이벤트에 대한 요청은 상당히 어려움을 겪습니다. 이러한 제한은 특정 지식 차단 지점이 있는 훈련 세트 때문입니다. 이 문제를 해결하기 위해 Google은 최근 Google AI Studio와 Gemini API에서 사용자가 실시간 Google 검색 데이터와 응답을 통합할 수 있는 혁신적인 기능을 공개했습니다 .
혁신적인 Grounding with Google Search 기능을 통해 개발자는 Gemini LLM에서 더 신선하고 정확한 응답을 생성할 수 있습니다. 이 기능의 두드러진 측면은 Grounding 참조(소스에 대한 인라인 링크)와 컨텍스트 응답과 관련된 검색 제안을 포함한다는 것입니다.
이 새로운 기능은 Gemini 1.5 모델의 모든 공개 버전과 호환됩니다. 그러나 1,000개의 접지된 쿼리당 35달러의 가격표가 있습니다. 이 기능을 활용하고자 하는 개발자는 Google AI Studio 내의 “도구” 섹션으로 이동하거나 API 내에서 ‘google_search_retrieval’ 도구를 활성화할 수 있습니다. 언제나 그렇듯이 사용자는 Google AI Studio를 통해 이 접지 기능을 무료로 실험할 수 있습니다.
Google은 개발자에게 다음과 같은 몇 가지 주요 시나리오에서 이 기능을 활용하도록 권장합니다.
- 환각 최소화: 접지는 더 정확한 정보 제공에 기여하여 AI 출력의 신뢰성을 향상시킵니다.
- 최신 정보에 대한 접근: Grounding을 통해 모델은 실시간 데이터를 가져오고, 이를 통해 AI 응답이 더 광범위한 맥락에서 관련성을 유지할 수 있습니다.
- 신뢰성과 게시자 트래픽 증가: 소스 링크를 통합함으로써 그라운딩은 AI 애플리케이션의 투명성을 강화하고, 사용자가 더 많은 통찰력을 얻기 위해 참조된 콘텐츠를 조사하도록 장려합니다.
- 더욱 포괄적인 데이터: Google 검색의 정보를 활용하면 접지를 통해 추가적인 맥락과 세부 정보로 응답을 풍부하게 만들 수 있습니다.
이 기능이 활성화되면 사용자 쿼리를 수신하면 Gemini 모델 API가 Google 검색 엔진을 활용하여 쿼리와 관련된 최신 정보를 검색합니다. 이 정보는 Gemini 모델에서 처리되어 보다 정확하고 최신의 응답을 제공합니다.
이미지 출처: Neowin.net
답글 남기기