Ex-líder de política da OpenAI afirma que a empresa mudou sua narrativa de segurança de IA

Ex-líder de política da OpenAI afirma que a empresa mudou sua narrativa de segurança de IA

A OpenAI está intensificando sua busca por inteligência geral artificial (AGI), particularmente na esteira da crescente competição da DeepSeek, que surgiu como um player formidável no cenário de IA. A empresa articulou sua visão para agentes avançados de IA, que considera ser o próximo marco significativo. No entanto, esse compromisso surge em meio a um escrutínio contínuo sobre o delicado equilíbrio entre segurança e avanço competitivo. Recentemente, a abordagem da OpenAI para a segurança da IA ​​enfrentou reações adversas, especialmente de ex-funcionários questionando a narrativa em evolução da empresa.

Críticas de ex-líder de políticas sobre a narrativa de segurança de IA da OpenAI

Em um esforço para envolver a comunidade, a OpenAI delineou sua metodologia para a implantação gradual de suas tecnologias de IA, citando a implementação cautelosa do GPT-2 como referência. No entanto, essa abordagem não foi universalmente adotada. Miles Brundage, um ex-pesquisador de políticas da OpenAI, criticou publicamente a empresa por supostamente distorcer a narrativa em torno de seu histórico de segurança de IA.

O documento divulgado pela OpenAI ressalta seu comprometimento com uma abordagem iterativa e ponderada para a implantação de IA. Este documento discute a importância de aprender com práticas passadas para aprimorar medidas de segurança futuras. Especificamente, ele cita o GPT-2 como um exemplo da estratégia cautelosa da empresa, afirmando que visa tratar os sistemas atuais com vigilância intensificada em um cenário complexo. O documento articula que:

Em um mundo descontínuo […] lições de segurança vêm do tratamento dos sistemas de hoje com cautela descomunal em relação ao seu poder aparente, [que] é a abordagem que adotamos para [nosso modelo de IA] GPT‑2. Agora vemos a primeira AGI como apenas um ponto ao longo de uma série de sistemas de utilidade crescente […] No mundo contínuo, a maneira de tornar o próximo sistema seguro e benéfico é aprender com o sistema atual.

Brundage, que atuou como chefe de pesquisa de políticas da OpenAI, enfatiza que a implementação do GPT-2 seguiu uma trajetória metódica, com a OpenAI fornecendo insights ao longo de seu desenvolvimento. Especialistas em segurança reconheceram a natureza responsável dessa implementação gradual. Ele sustenta que a abordagem cautelosa foi essencial, em vez de excessivamente hesitante.

Brundage ainda expressou desconforto sobre a afirmação da OpenAI de que a AGI se desenvolverá por meio de etapas incrementais, em vez de um avanço repentino. Ele critica a empresa por potencialmente deturpar os cronogramas de lançamentos anteriores e por redefinir os padrões de segurança, o que ele acredita que pode minar discussões críticas sobre os riscos da IA ​​conforme a tecnologia avança.

Este incidente marca mais uma instância da OpenAI enfrentando questões sobre seu comprometimento em priorizar a segurança de longo prazo em vez da inovação rápida e do lucro. Especialistas como Brundage continuam a expressar preocupações sobre a importância de uma abordagem medida para a segurança da IA, especialmente à medida que o ritmo do avanço aumenta.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *