
A OpenAI está intensificando sua busca por inteligência geral artificial (AGI), particularmente na esteira da crescente competição da DeepSeek, que surgiu como um player formidável no cenário de IA. A empresa articulou sua visão para agentes avançados de IA, que considera ser o próximo marco significativo. No entanto, esse compromisso surge em meio a um escrutínio contínuo sobre o delicado equilíbrio entre segurança e avanço competitivo. Recentemente, a abordagem da OpenAI para a segurança da IA enfrentou reações adversas, especialmente de ex-funcionários questionando a narrativa em evolução da empresa.
Críticas de ex-líder de políticas sobre a narrativa de segurança de IA da OpenAI
Em um esforço para envolver a comunidade, a OpenAI delineou sua metodologia para a implantação gradual de suas tecnologias de IA, citando a implementação cautelosa do GPT-2 como referência. No entanto, essa abordagem não foi universalmente adotada. Miles Brundage, um ex-pesquisador de políticas da OpenAI, criticou publicamente a empresa por supostamente distorcer a narrativa em torno de seu histórico de segurança de IA.
O documento divulgado pela OpenAI ressalta seu comprometimento com uma abordagem iterativa e ponderada para a implantação de IA. Este documento discute a importância de aprender com práticas passadas para aprimorar medidas de segurança futuras. Especificamente, ele cita o GPT-2 como um exemplo da estratégia cautelosa da empresa, afirmando que visa tratar os sistemas atuais com vigilância intensificada em um cenário complexo. O documento articula que:
Em um mundo descontínuo […] lições de segurança vêm do tratamento dos sistemas de hoje com cautela descomunal em relação ao seu poder aparente, [que] é a abordagem que adotamos para [nosso modelo de IA] GPT‑2. Agora vemos a primeira AGI como apenas um ponto ao longo de uma série de sistemas de utilidade crescente […] No mundo contínuo, a maneira de tornar o próximo sistema seguro e benéfico é aprender com o sistema atual.
Brundage, que atuou como chefe de pesquisa de políticas da OpenAI, enfatiza que a implementação do GPT-2 seguiu uma trajetória metódica, com a OpenAI fornecendo insights ao longo de seu desenvolvimento. Especialistas em segurança reconheceram a natureza responsável dessa implementação gradual. Ele sustenta que a abordagem cautelosa foi essencial, em vez de excessivamente hesitante.
A maior parte deste post é boa + aplaudo as pessoas que trabalham no trabalho substancial que ele discute.
Mas estou bastante incomodado/preocupado com a seção “AGI em muitas etapas em vez de um salto gigante”, que reescreve a história do GPT-2 de uma forma preocupante.https://t.co/IQOdKczJeT
— Miles Brundage (@Miles_Brundage) 5 de março de 2025
Brundage ainda expressou desconforto sobre a afirmação da OpenAI de que a AGI se desenvolverá por meio de etapas incrementais, em vez de um avanço repentino. Ele critica a empresa por potencialmente deturpar os cronogramas de lançamentos anteriores e por redefinir os padrões de segurança, o que ele acredita que pode minar discussões críticas sobre os riscos da IA conforme a tecnologia avança.
Este incidente marca mais uma instância da OpenAI enfrentando questões sobre seu comprometimento em priorizar a segurança de longo prazo em vez da inovação rápida e do lucro. Especialistas como Brundage continuam a expressar preocupações sobre a importância de uma abordagem medida para a segurança da IA, especialmente à medida que o ritmo do avanço aumenta.
Deixe um comentário