元OpenAI政策リーダー、同社がAIの安全性に関する説明を変えたと主張

元OpenAI政策リーダー、同社がAIの安全性に関する説明を変えたと主張

OpenAI は、AI 分野で強力なプレーヤーとして台頭してきた DeepSeek との競争が激化するなか、特に人工汎用知能 (AGI) の追求を強化している。同社は、高度な AI エージェントのビジョンを明確にしており、これを次の重要なマイルストーンと見なしている。しかし、この取り組みは、安全性と競争力の進歩との間の微妙なバランスに関する継続的な精査の中で行われている。最近、OpenAI の AI 安全性に対するアプローチは、特に同社の進化するストーリーに疑問を呈する元従業員からの反発に直面している。

OpenAIのAI安全性に関する説明に対する元政策責任者の批判

OpenAI はコミュニティの関与を促すため、GPT-2 の慎重な展開をベンチマークとして、AI 技術を段階的に展開する方法論を概説した。しかし、このアプローチは広く受け入れられたわけではない。OpenAI の元政策研究者であるマイルズ・ブランデージ氏は、同社が AI の安全性に関する歴史を歪曲しているとして公に批判している。

OpenAI が発表した文書、AI の導入に対する反復的で思慮深いアプローチへの同社の取り組みを強調しています。この文書では、過去の実践から学び、将来の安全対策を強化することの重要性について説明しています。具体的には、同社の慎重な戦略の例として GPT-2 を挙げ、複雑な状況において現在のシステムを高い警戒心を持って扱うことを目指していると主張しています。この文書では、次のことを明確に述べています。

不連続な世界では、安全性の教訓は、今日のシステムをその見かけのパワーに比べて非常に慎重に扱うことから得られます。これは、私たちが [AI モデル] GPT-2 で採用したアプローチです。私たちは現在、最初の AGI を、有用性が増す一連のシステム上の 1 つのポイントにすぎないと考えています […] 連続的な世界では、次のシステムを安全で有益なものにする方法は、現在のシステムから学ぶことです。

OpenAI の政策研究責任者を務めたブランデージ氏は、GPT-2 の展開は計画的な軌道をたどり、OpenAI は開発全体を通じて知見を提供してきたと強調する。セキュリティ専門家は、この段階的な展開の責任ある性質を認めている。ブランデージ氏は、慎重なアプローチは必要不可欠であり、過度にためらいがちだったわけではないと主張する。

ブランデージ氏はさらに、AGI は突然のブレークスルーではなく段階的に発展していくという OpenAI の主張に不安を表明した。同氏は同社が過去のリリースのタイムラインを誤って伝えている可能性があり、安全基準を再定義していることを批判しており、技術の進歩に伴う AI のリスクに関する重要な議論を損なう可能性があると考えている。

この事件は、OpenAI が急速なイノベーションや利益よりも長期的な安全性を優先するという同社の姿勢に疑問を抱く、また別の事例だ。ブランデージ氏のような専門家は、特に進歩のペースが速まる中で、AI の安全性に対する慎重なアプローチの重要性について懸念を表明し続けている。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です