Outbyte PC Repair

Google guarda silencio sobre la obtención de permiso para entrenar a Gemini con los resultados de Claude

Google guarda silencio sobre la obtención de permiso para entrenar a Gemini con los resultados de Claude

El entrenamiento de inteligencia artificial Gemini de Google genera sorpresa

Un informe reciente de TechCrunch ha revelado algunas metodologías intrigantes empleadas por Google en el entrenamiento de su IA Gemini. Como parte de este proceso de desarrollo, Google ha contratado a contratistas encargados de evaluar los resultados de la IA en varios criterios, entre ellos la precisión, la claridad y la seguridad. Lo que hace que esta situación sea digna de mención es el hecho de que estos contratistas están utilizando el modelo de lenguaje grande (LLM) de Anthropic, Claude, como punto de referencia para comparar las respuestas generadas por Gemini.

Hallazgos inusuales durante las comparaciones

En observaciones recientes, los contratistas que trabajan en la plataforma de análisis interna de Google descubrieron un problema inesperado: uno de los resultados atribuidos a Claude se presentó como la respuesta de Gemini. Un análisis más detallado reveló que varias respuestas exhibían características de Claude, particularmente en términos de seguridad. Por ejemplo, un ejemplo notable fue el de Claude que se negó a participar en escenarios de juego de roles como otro asistente de IA, lo que llamó la atención sobre el enfoque cauteloso del modelo.

Implicaciones de las Condiciones de Servicio de Anthropic

Para complicar aún más la situación, Anthropic ha establecido explícitamente las condiciones de servicio , que prohíben claramente el uso de los resultados de Claude para el desarrollo de productos de la competencia:

Restricciones de uso. El Cliente no puede ni debe intentar (a) acceder a los Servicios para crear un producto o servicio de la competencia, incluido el entrenamiento de modelos de IA de la competencia, excepto que Anthropic lo apruebe expresamente; (b) realizar ingeniería inversa o duplicar los Servicios; o (c) respaldar el intento de un tercero de llevar a cabo cualquiera de las conductas restringidas en esta oración. El Cliente y sus Usuarios solo pueden usar los Servicios en los países y regiones que Anthropic admite actualmente.

Respuesta no vinculante de Google

Cuando TechCrunch les preguntó si habían obtenido los permisos necesarios de Anthropic para utilizar los resultados de Claude, la respuesta de Google no fue del todo concluyente. Shira McNamara, portavoz de DeepMind, comentó:

Por supuesto, de acuerdo con la práctica estándar de la industria, en algunos casos comparamos los resultados del modelo como parte de nuestro proceso de evaluación.

Navegando por el panorama de la IA

Si bien las comparaciones entre modelos son una práctica común en el desarrollo de IA, donde las empresas comparan sus modelos con los de sus rivales para medir el rendimiento y diseñar mejoras, el acto de utilizar o imitar directamente los resultados de otro modelo sin consentimiento explícito plantea importantes cuestiones éticas. Esta situación se desarrolla a medida que la industria de la IA se vuelve cada vez más competitiva. Google ha presentado recientemente una versión experimental de Gemini que, según se informa, supera a GPT-4o de OpenAI en varias categorías de evaluación. Mientras tanto, Anthropic continúa avanzando con Claude, con mejoras recientes que permiten estilos de conversación versátiles y una herramienta integrada para escribir y ejecutar código JavaScript directamente dentro de su interfaz.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *