Outbyte PC Repair

Google은 Claude의 출력에 대한 Gemini 훈련 허가를 ​​얻는 데 대해 아무런 언급도 하지 않았습니다.

Google은 Claude의 출력에 대한 Gemini 훈련 허가를 ​​얻는 데 대해 아무런 언급도 하지 않았습니다.

구글 제미니 AI 훈련, 눈살 찌푸리게 하다

TechCrunch의 최근 보고서 는 Google이 Gemini AI를 훈련하는 데 사용한 몇 가지 흥미로운 방법론을 공개했습니다. 이 개발 프로세스의 일환으로 Google은 정확성, 명확성 및 안전성을 포함한 다양한 기준에 따라 AI의 출력을 평가하는 업무를 맡은 계약자를 모집했습니다. 이 상황을 주목할 만한 점은 이러한 계약자가 Gemini에서 생성된 응답을 비교하기 위한 벤치마크로 Anthropic의 대규모 언어 모델(LLM)인 Claude를 사용하고 있다는 사실입니다.

비교 중 특이한 발견

최근 관찰에서 Google의 내부 분석 플랫폼에서 일하는 계약자들은 예상치 못한 문제를 발견했습니다. 클로드에게 기인한 출력 중 하나가 제미니의 응답으로 제시되었습니다. 추가 조사 결과, 여러 응답에서 클로드의 특성이 나타났으며, 특히 안전 측면에서 그렇습니다. 예를 들어, 주목할 만한 한 가지 사례는 클로드가 다른 AI 조수로서 롤플레잉 시나리오에 참여하지 않는 것이었으며, 이는 모델의 신중한 접근 방식에 주목하게 했습니다.

Anthropic 서비스 약관의 의미

이 상황에 복잡성을 더하는 것은 Anthropic이 명시 적으로 제시한 서비스 약관 입니다 . 이러한 약관은 Claude의 결과물을 경쟁 제품 개발에 사용하는 것을 명확히 금지합니다.

사용 제한. 고객은 (a) Anthropic에서 명시적으로 승인한 경우를 제외하고 경쟁 제품이나 서비스를 구축하기 위해 서비스에 액세스하거나 경쟁 AI 모델을 훈련하는 것을 포함하여 서비스에 액세스하거나 (b) 서비스를 역엔지니어링하거나 복제하거나 (c) 이 문장에서 제한된 행위를 시도하는 제3자를 지원해서는 안 됩니다. 고객과 그 사용자는 현재 Anthropic에서 지원하는 국가 및 지역에서만 서비스를 사용할 수 있습니다.

Google의 확실한 답변이 없음

TechCrunch가 Claude의 출력을 활용하기 위해 Anthropic으로부터 필요한 허가를 받았는지에 대해 질문했을 때 Google의 답변은 확실하지 않았습니다. DeepMind의 대변인인 Shira McNamara는 다음과 같이 말했습니다.

물론, 표준 업계 관행에 따라 어떤 경우에는 평가 과정의 일환으로 모델 출력을 비교합니다.

AI 환경 탐색

AI 개발에서 교차 모델 비교는 기업이 경쟁사와 자사 모델을 벤치마킹하여 성과를 측정하고 개선책을 고안하는 일반적인 관행이지만, 명시적 동의 없이 다른 모델의 출력을 직접 활용하거나 모방하는 행위는 중대한 윤리적 문제를 제기합니다. 이러한 상황은 AI 산업이 점점 더 경쟁적이 되면서 전개됩니다. Google은 최근 Gemini의 실험 버전을 출시했는데, 이는 여러 평가 범주에서 OpenAI의 GPT-4o를 능가한다고 합니다. 한편 Anthropic은 Claude를 계속 발전시키고 있으며, 다양한 대화 스타일을 가능하게 하는 최근 개선 사항과 JavaScript 코드를 인터페이스 내에서 직접 작성하고 실행하기 위한 통합 도구를 제공합니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다