
OpenAI está intensificando su búsqueda de inteligencia artificial general (AGI), en particular a raíz de la creciente competencia de DeepSeek, que ha surgido como un actor formidable en el panorama de la IA. La empresa ha articulado su visión de los agentes de IA avanzados, que considera que será el próximo hito importante. Sin embargo, este compromiso se produce en medio de un escrutinio constante sobre el delicado equilibrio entre la seguridad y el avance competitivo. Recientemente, el enfoque de OpenAI en materia de seguridad de la IA ha enfrentado una reacción negativa, especialmente de parte de ex empleados que cuestionan la narrativa cambiante de la empresa.
Crítica de un exdirector de políticas sobre la narrativa de seguridad de la IA de OpenAI
En un esfuerzo por involucrar a la comunidad, OpenAI ha esbozado su metodología para la implementación gradual de sus tecnologías de IA, citando la cautelosa implementación de GPT-2 como punto de referencia. Sin embargo, este enfoque no ha sido aceptado universalmente. Miles Brundage, ex investigador de políticas de OpenAI, ha criticado públicamente a la empresa por supuestamente distorsionar la narrativa en torno a su historial de seguridad de la IA.
El documento publicado por OpenAI subraya su compromiso con un enfoque iterativo y reflexivo para la implementación de la IA. Este documento analiza la importancia de aprender de las prácticas pasadas para mejorar las medidas de seguridad futuras. En concreto, cita a GPT-2 como ejemplo de la estrategia cautelosa de la empresa, afirmando que su objetivo es tratar los sistemas actuales con mayor vigilancia en un panorama complejo. El documento articula lo siguiente:
En un mundo discontinuo […] las lecciones de seguridad se obtienen al tratar los sistemas actuales con una precaución desmesurada en relación con su potencia aparente, [que] es el enfoque que adoptamos para [nuestro modelo de IA] GPT‑2. Ahora vemos la primera IA general como un punto más de una serie de sistemas de utilidad creciente […] En el mundo continuo, la forma de hacer que el próximo sistema sea seguro y beneficioso es aprender del sistema actual.
Brundage, quien se desempeñó como jefe de investigación de políticas de OpenAI, destaca que la implementación de GPT-2 siguió una trayectoria metódica, en la que OpenAI proporcionó información a lo largo de su desarrollo. Los expertos en seguridad reconocieron la naturaleza responsable de esta implementación gradual.Sostiene que el enfoque cauteloso fue esencial, en lugar de ser demasiado provisional.
La mayor parte de esta publicación es buena y aplaudo a las personas que trabajan en el trabajo sustancial que analiza.
Pero estoy bastante molesto/preocupado por la sección “AGI en muchos pasos en lugar de un salto gigante”, que reescribe la historia de GPT-2 de una manera preocupante.https://t.co/IQOdKczJeT
— Miles Brundage (@Miles_Brundage) 5 de marzo de 2025
Brundage también expresó su inquietud por la afirmación de OpenAI de que la IA general se desarrollará mediante pasos graduales en lugar de como un avance repentino. Critica a la empresa por tergiversar potencialmente los plazos de los lanzamientos anteriores y por redefinir los estándares de seguridad, lo que, en su opinión, podría socavar los debates críticos sobre los riesgos de la IA a medida que avanza la tecnología.
Este incidente marca otro ejemplo más de cómo OpenAI enfrenta cuestionamientos sobre su compromiso de priorizar la seguridad a largo plazo por sobre la innovación rápida y las ganancias. Expertos como Brundage siguen expresando inquietudes sobre la importancia de un enfoque mesurado para la seguridad de la IA, especialmente a medida que aumenta el ritmo de los avances.
Deja una respuesta