La formation d’IA Gemini de Google fait sourciller
Un récent rapport de TechCrunch a dévoilé certaines méthodologies intrigantes employées par Google dans la formation de son IA Gemini. Dans le cadre de ce processus de développement, Google a fait appel à des sous-traitants chargés d’évaluer les résultats de l’IA sur divers critères, notamment la précision, la clarté et la sécurité. Ce qui rend cette situation remarquable, c’est le fait que ces sous-traitants utilisent le grand modèle de langage (LLM) d’Anthropic, Claude, comme référence pour comparer les réponses générées par Gemini.
Résultats inhabituels lors des comparaisons
Lors d’observations récentes, des sous-traitants travaillant au sein de la plateforme d’analyse interne de Google ont découvert un problème inattendu : l’une des sorties attribuées à Claude était présentée comme la réponse de Gemini. Un examen plus approfondi a révélé que plusieurs réponses présentaient les caractéristiques de Claude, notamment en termes de sécurité. Par exemple, un exemple notable impliquait que Claude refusait de s’engager dans des scénarios de jeu de rôle en tant qu’un autre assistant IA, attirant l’attention sur l’approche prudente du modèle.
Conséquences des conditions d’utilisation d’Anthropic
Les conditions de service explicites établies par Anthropic ajoutent une couche de complexité à cette situation. Ces conditions interdisent clairement l’utilisation des résultats de Claude pour le développement de produits concurrents :
Restrictions d’utilisation. Le Client ne peut pas et ne doit pas tenter (a) d’accéder aux Services pour créer un produit ou un service concurrent, y compris pour entraîner des modèles d’IA concurrents, sauf autorisation expresse d’Anthropic ; (b) de procéder à une rétro-ingénierie ou de dupliquer les Services ; ou (c) de soutenir toute tentative d’un tiers de se livrer à l’une des activités interdites dans cette phrase. Le Client et ses Utilisateurs ne peuvent utiliser les Services que dans les pays et régions actuellement pris en charge par Anthropic.
Réponse sans engagement de Google
Interrogé par TechCrunch sur l’obtention des autorisations nécessaires auprès d’Anthropic pour utiliser les résultats de Claude, Google a répondu de manière peu concluante. Shira McNamara, porte-parole de DeepMind, a commenté :
Bien entendu, conformément aux pratiques standard du secteur, nous comparons dans certains cas les résultats des modèles dans le cadre de notre processus d’évaluation.
Naviguer dans le paysage de l’IA
Les comparaisons entre modèles sont une pratique courante dans le développement de l’IA, où les entreprises comparent leurs modèles à ceux de leurs concurrents pour évaluer les performances et concevoir des améliorations. Cependant, le fait d’utiliser ou d’imiter directement les résultats d’un autre modèle sans consentement explicite pose d’importantes questions éthiques. Cette situation se développe à mesure que le secteur de l’IA devient de plus en plus compétitif. Google a récemment présenté une version expérimentale de Gemini qui surpasserait le GPT-4o d’OpenAI dans plusieurs catégories d’évaluation. Pendant ce temps, Anthropic continue de faire progresser Claude, avec des améliorations récentes qui permettent des styles de conversation polyvalents et un outil intégré pour écrire et exécuter du code JavaScript directement dans son interface.
Laisser un commentaire