
OpenAI는 특히 AI 분야에서 강력한 플레이어로 떠오른 DeepSeek와의 경쟁이 치열해짐에 따라 인공 일반 지능(AGI)에 대한 추구를 강화하고 있습니다.이 회사는 고급 AI 에이전트에 대한 비전을 표명했으며, 이를 다음으로 중요한 이정표로 여깁니다.그러나 이러한 공약은 안전과 경쟁 진전 간의 섬세한 균형에 대한 지속적인 조사 속에서 이루어졌습니다.최근 OpenAI의 AI 안전에 대한 접근 방식은 특히 회사의 진화하는 내러티브에 의문을 제기하는 전직 직원들의 반발에 직면했습니다.
OpenAI의 AI 안전 내러티브에 대한 전 정책 책임자의 비판
커뮤니티 참여를 위해 OpenAI는 GPT-2의 신중한 출시를 벤치마크로 인용하여 AI 기술의 점진적 배포를 위한 방법론을 설명했습니다.그러나 이 접근 방식은 보편적으로 받아들여지지 않았습니다. OpenAI의 전 정책 연구원인 Miles Brundage는 회사가 AI 안전 역사를 둘러싼 이야기를 왜곡했다는 이유로 공개적으로 비판했습니다.
OpenAI가 공개한 문서 는 AI 배포에 대한 반복적이고 사려 깊은 접근 방식에 대한 의지를 강조합니다.이 문서는 과거 관행에서 학습하여 미래의 안전 조치를 강화하는 것의 중요성에 대해 설명합니다.구체적으로, GPT-2를 회사의 신중한 전략의 예로 인용하여 복잡한 환경에서 현재 시스템을 더욱 경계하는 것을 목표로 한다고 주장합니다.이 문서는 다음과 같이 설명합니다.
불연속적인 세계에서 […] 안전 교훈은 오늘날의 시스템을 겉보기에 강력한 힘에 비해 지나치게 조심스럽게 다루는 데서 나옵니다.[이것이] 우리가 [AI 모델] GPT‑2에 취한 접근 방식입니다.우리는 이제 첫 번째 AGI를 점점 더 유용해지는 일련의 시스템에서 한 지점으로 봅니다.[…] 연속적인 세계에서 다음 시스템을 안전하고 유익하게 만드는 방법은 현재 시스템에서 배우는 것입니다.
OpenAI의 정책 연구 책임자를 지낸 브런디지는 GPT-2 출시가 체계적인 궤적을 따랐으며 OpenAI가 개발 전반에 걸쳐 통찰력을 제공했다고 강조합니다.보안 전문가들은 이 점진적인 배포의 책임감 있는 성격을 인정했습니다.그는 지나치게 주저하는 것이 아니라 신중한 접근 방식이 필수적이라고 주장합니다.
이 글의 내용은 훌륭합니다.그리고 이 글에서 다루는 중요한 작업에 참여한 분들께 박수를 보냅니다.
하지만 저는 “한 번의 거대한 도약이 아닌 여러 단계의 AGI” 섹션에 대해 꽤 짜증이 나고/걱정스럽습니다.이 섹션은 GPT-2의 역사를 우려스러운 방식으로 다시 씁니다.https://t.co/IQOdKczJeT
— Miles Brundage (@Miles_Brundage) 2025년 3월 5일
Brundage는 AGI가 갑작스러운 돌파구가 아닌 점진적인 단계를 거쳐 개발될 것이라는 OpenAI의 주장에 대해 더욱 불안해했습니다.그는 회사가 과거 출시 일정을 잘못 표현하고 안전 기준을 재정의한 것에 대해 비판하며, 이는 기술이 발전함에 따라 AI 위험에 대한 중요한 논의를 훼손할 수 있다고 생각합니다.
이 사건은 OpenAI가 급속한 혁신과 이익보다 장기적인 안전을 우선시하려는 의지에 대한 의문에 직면한 또 다른 사례입니다. Brundage와 같은 전문가들은 특히 발전 속도가 증가함에 따라 AI 안전에 대한 측정된 접근 방식의 중요성에 대한 우려를 계속 표명하고 있습니다.
답글 남기기