
Recientemente, OpenAI dio un paso importante al presentar modelos de peso abierto, un movimiento notable en un mercado dominado en gran medida por las principales empresas chinas de inteligencia artificial.
Los modelos de peso abierto de OpenAI superan a sus homólogos chinos en áreas clave
Las empresas tecnológicas estadounidenses están empezando a adoptar estrategias que sus homólogas chinas han utilizado desde hace tiempo, en particular en la integración de marcos de código abierto con grandes modelos de lenguaje (LLM).Este cambio se alinea con las prioridades articuladas en el plan de acción de IA del expresidente Trump, que enfatizó la importancia de los modelos de IA de código abierto. Como resultado, OpenAI ha lanzado su serie gpt-oss, que representa su primer conjunto de modelos de peso abierto desde GPT-2, disponible en dos configuraciones: gpt-oss-20b y gpt-oss-120b.
Al examinar las especificaciones técnicas de estos nuevos modelos, el gpt-oss-20b presume de la impresionante cantidad de 21 mil millones de parámetros y utiliza una arquitectura de transformador de mezcla de expertos (MoE).Además, ofrece una ventana de contexto sustancial de hasta 131, 072 tokens, lo que lo hace compatible con plataformas de VRAM de 16 GB y le permite funcionar eficientemente en la mayoría de las GPU de consumo. Por el contrario, el gpt-oss-120b, de mayor tamaño y con una robusta cantidad de 117 mil millones de parámetros, destaca en tareas de razonamiento, pero requiere una plataforma NVIDIA H100 más potente para un rendimiento óptimo.

Cabe destacar que estos modelos se distribuyen bajo la licencia Apache 2.0, que otorga permisos para uso comercial, modificación y redistribución. Esta naturaleza de código abierto los posiciona de forma similar a sus equivalentes chinos. Con la entrada de OpenAI en este espacio, parece estar respondiendo estratégicamente a los avances de las empresas chinas de IA, que llevan años desarrollando ecosistemas de código abierto. Salvo LLaMA de Meta, hasta la fecha, en Estados Unidos se ha observado poca evolución en los modelos de código abierto convencionales.
Con la incursión de OpenAI en los modelos de peso abierto, se esperan futuras versiones. La comparación de gpt-oss con las alternativas chinas revela que, si bien OpenAI ha logrado avances notables, los modelos chinos suelen tener un mayor número de parámetros. Por ejemplo, modelos destacados como DeepSeek V2 y Qwen 3 presentan un número de parámetros significativamente mayor:
Categoría | GPT‑OSS 120B/20B | DeepSeek-V2 / R1 | Qwen3 / Qwen2.5 / QwQ |
---|---|---|---|
Organización | OpenAI | Búsqueda profunda (China) | Alibaba (China) |
Tipo de modelo | MoE disperso (mezcla de expertos) | MoE disperso | Híbridos densos y de MoE |
Parámetros totales | 120B / 20B | 236B / 67B | 235B / 72B / 32B / otros |
Parámetros activos | ~5.1B / ~3.6B | ~21B / ~6.7B | ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B) |
Ventana de contexto | 128.000 tokens | 128.000 tokens | 128K (Qwen3), 32K (Qwen2.5) |
Si bien el recuento total y activo de parámetros es importante, no son los únicos factores que determinan la superioridad de un modelo. No obstante, sus homólogos chinos tienen una ventaja considerable, principalmente debido a sus años de experiencia. Para evaluar su rendimiento en tiempo real, se compararon diversos puntos de referencia, como MMLU (Massive Multitask Language Understanding) y AIME Math. Estas evaluaciones, realizadas por Clarifai, revelan importantes hallazgos:
Tarea de referencia | GPT‑OSS‑120B | GLM‑4.5 | Pensamiento Qwen-3 | Búsqueda profunda R1 | Como el K2 |
---|---|---|---|---|---|
MMLU‑Pro (Razonamiento) | ~90, 0% | 84, 6% | 84, 4% | 85.0% | 81, 1% |
Matemáticas AIME (con herramientas) | ~96, 6–97, 9% | ~91% | ~92, 3% | ~87, 5% | ~49–69% |
GPQA (Doctorado en Ciencias) | ~80, 9% | 79, 1% | 81, 1% | 81.0% | 75, 1% |
SWE-bench (Codificación) | 62, 4% | 64, 2% | — | ~65, 8% | ~65, 8% |
Banco TAU (Agentes) | ~67, 8% | 79, 7% | ~67, 8% | ~63, 9% | ~70, 6% |
BFCL‑v3 (Llamada de funciones) | ~67–68% | 77, 8% | 71, 9% | 37% | — |
Los resultados muestran claramente que gpt-oss destaca en tareas de razonamiento y matemáticas, lo que lo posiciona como un competidor formidable dentro de su grupo de pares. Además, tiene una huella de parámetros activos menor en comparación con muchos modelos densos, lo que lo convierte en una opción más económica para usuarios que buscan soluciones de IA locales. Sin embargo, los benchmarks indican que, en tareas de agencia y capacidades multilingües, el modelo gpt-oss-120b aún está por detrás de algunas alternativas chinas, aunque sigue siendo un fuerte competidor en el mercado.
La aparición de modelos de peso abierto es vital para la industria de la IA, ya que fomentan un ecosistema más inclusivo. Con esta iniciativa, OpenAI tiene el potencial de reforzar la presencia estadounidense en un ámbito anteriormente dominado por organizaciones chinas. Este hito probablemente satisfaga a Sam Altman y al equipo de OpenAI mientras se desenvuelven en este panorama competitivo.
Deja una respuesta