
OpenAI lanza o3-mini: un nuevo avance en los modelos de razonamiento
OpenAI ha presentado oficialmente o3-mini, su modelo de razonamiento más rentable. Este nuevo modelo está diseñado para ejecutar tareas con una eficiencia comparable a la del aclamado modelo o1, y se destaca particularmente en áreas como matemáticas, codificación y razonamiento científico. Los desarrolladores pueden acceder a o3-mini a través de las API de OpenAI, que cuentan con soporte integral para llamadas de función, salidas estructuradas, transmisión, así como mensajería para desarrolladores a través de la API de finalización de chat, la API de asistentes y la API de lotes.
Integración con Microsoft Azure
Al mismo tiempo, Microsoft ha anunciado que el modelo o3-mini también será accesible a través del servicio Microsoft Azure OpenAI. Los desarrolladores interesados en aprovechar este modelo avanzado pueden registrarse en Azure AI Foundry.
Perspectivas de expertos sobre el lanzamiento
Yina Arenas, vicepresidenta de productos de inteligencia artificial central en Microsoft, compartió sus pensamientos sobre la presentación del o3-mini y afirmó:
o3-mini agrega eficiencias de costos significativas en comparación con o1-mini con razonamiento mejorado, con nuevas características como control del esfuerzo de razonamiento y herramientas, al tiempo que proporciona una capacidad de respuesta comparable o mejor. Las capacidades avanzadas de o3-mini, combinadas con sus ganancias de eficiencia, lo convierten en una herramienta poderosa para desarrolladores y empresas que buscan optimizar sus aplicaciones de IA.
Mejoras en GitHub Copilot
Además, GitHub de Microsoft ha confirmado la implementación de o3-mini dentro de GitHub Copilot y GitHub Models para desarrolladores. En comparación con su predecesor, o1-mini, los desarrolladores pueden esperar una calidad de salida mejorada de o3-mini. Este modelo es accesible para los usuarios de GitHub Copilot Pro, Business y Enterprise a través del selector de modelos en Visual Studio Code y en el chat de github.com, y se planea brindar más soporte para Visual Studio y JetBrains en las próximas semanas.
Para los suscriptores de GitHub Copilot, el nuevo o3-mini permitirá a los usuarios generar hasta 50 mensajes cada 12 horas. Además, los administradores de cuentas de GitHub Business o Enterprise pueden habilitar el acceso al modelo o3-mini para los miembros de su equipo a través de sus respectivas configuraciones de administrador.
Oportunidades de exploración en el área de juegos de modelos de GitHub
GitHub se propone enriquecer la experiencia de los desarrolladores al introducir o3-mini en el área de juegos de modelos de GitHub, brindando a los usuarios la oportunidad de explorar sus capacidades y compararlas con las ofertas de Cohere, DeepSeek, Meta y Mistral.
Conclusión: Una nueva era para el desarrollo de la IA
La amplia disponibilidad del modelo o3-mini en varias plataformas permite a los desarrolladores incorporar sus capacidades de razonamiento avanzado en sus aplicaciones y servicios de manera eficaz. Este modelo innovador está preparado para redefinir los estándares de las capacidades de IA en el desarrollo.
Para más detalles, visite la fuente.
Deja una respuesta ▼