O treinamento de IA Gemini do Google levanta sobrancelhas
Um relatório recente do TechCrunch revelou algumas metodologias intrigantes empregadas pelo Google no treinamento de sua IA Gemini. Como parte desse processo de desenvolvimento, o Google recrutou contratados encarregados de avaliar as saídas da IA em vários critérios, incluindo precisão, clareza e segurança. O que torna essa situação digna de nota é o fato de que esses contratados estão usando o modelo de linguagem grande (LLM) da Anthropic, Claude, como referência para comparar respostas geradas pela Gemini.
Descobertas incomuns durante comparações
Em observações recentes, contratados trabalhando na plataforma de análise interna do Google descobriram um problema inesperado: uma das saídas atribuídas a Claude foi apresentada como a resposta de Gemini. Um exame mais aprofundado revelou que várias respostas exibiam as características de Claude, particularmente em termos de segurança. Por exemplo, um exemplo notável envolveu Claude se recusando a se envolver em cenários de RPG como outro assistente de IA, chamando a atenção para a abordagem cautelosa do modelo.
Implicações dos Termos de Serviço da Anthropic
Adicionando uma camada de complexidade a essa situação estão os termos de serviço explícitos estabelecidos pela Anthropic. Esses termos proíbem claramente o uso dos resultados de Claude para o desenvolvimento de produtos concorrentes:
Restrições de uso. O Cliente não pode e não deve tentar (a) acessar os Serviços para construir um produto ou serviço concorrente, incluindo treinar modelos de IA concorrentes, exceto conforme expressamente aprovado pela Anthropic; (b) fazer engenharia reversa ou duplicar os Serviços; ou (c) dar suporte a qualquer tentativa de terceiros em qualquer conduta restrita nesta frase. O Cliente e seus Usuários podem usar os Serviços somente nos países e regiões que a Anthropic atualmente oferece suporte.
Resposta não comprometedora do Google
Quando questionado pelo TechCrunch sobre se eles obtiveram as permissões necessárias da Anthropic para utilizar as saídas de Claude, a resposta do Google foi menos do que definitiva. Shira McNamara, porta-voz da DeepMind, comentou:
É claro que, de acordo com as práticas padrão do setor, em alguns casos comparamos os resultados dos modelos como parte do nosso processo de avaliação.
Navegando no cenário da IA
Embora comparações entre modelos sejam uma prática prevalente no desenvolvimento de IA, onde as empresas comparam seus modelos com os rivais para avaliar o desempenho e elaborar melhorias, o ato de utilizar ou imitar diretamente as saídas de outro modelo sem consentimento explícito levanta questões éticas significativas. Essa situação se desenrola à medida que a indústria de IA se torna cada vez mais competitiva. O Google introduziu recentemente uma versão experimental do Gemini que supostamente supera o GPT-4o da OpenAI em várias categorias de avaliação. Enquanto isso, a Anthropic continua a avançar o Claude, com aprimoramentos recentes que permitem estilos de conversação versáteis e uma ferramenta integrada para escrever e executar código JavaScript diretamente em sua interface.
Deixe um comentário