Google、軍事兵器におけるAI利用に関する取り組みを更新

Google、軍事兵器におけるAI利用に関する取り組みを更新

人工知能の台頭:その影響と発展

米国の ChatGPT や中国の DeepSeek などの大規模言語モデル (LLM) チャットボットが爆発的な人気を博し、株式市場に大きな影響を与えたことを受けて、人工知能 (AI) が世界的に注目を集め、脚光を浴びています。この新たな関心は、特に「人工知能」という言葉に馴染みのない人々の間で、AI がさまざまな業界に与える影響に関する適切な疑問を提起しています。

AI技術を巡る懸念

AI がもたらすメリットにもかかわらず、無視できない固有のリスクが存在します。誤報、プライバシー侵害、テクノロジーへの過度の依存、軍事利用の可能性などの問題は深刻な懸念を引き起こします。このような危険を軽減する責任は、AI の先駆者と業界のリーダーにかかっています。

責任ある AI への Google の取り組み

これらの課題に対応するため、Google は AI 開発の領域において一貫して安全性を優先してきました。過去 6 年間、同社は毎年「責任ある AI 進捗レポート」を発行してきました。最近では、AIの安全性を強化するための継続的な取り組みを概説した文書である2024 年の進捗レポートを発表しました。

最新のレポートからの重要な更新の 1 つは、Google の Frontier Safety Framework の修正です。Google DeepMind によって開始されたこのフレームワークは、高度な AI システムに関連する潜在的なリスクを積極的に特定して対処することを目的としています。主な強化点は次のとおりです。

  • セキュリティ強化のための推奨事項: データ侵害に対するセキュリティ対策を強化するための戦略を提案します。
  • 導入緩和手順: 強力な AI 機能の誤用を防ぐためのガイドラインを確立します。
  • 欺瞞的な調整リスク: 人間の監視を操作する可能性のある自律システムによってもたらされる脅威に取り組みます。

AI開発における民主的リーダーシップ

Googleは安全プロトコルの更新とともに、自由、平等、人権尊重などの価値を重視し、民主主義国家がAI技術の開発を主導すべきだという立場を再確認した。同社はまた、2018年に初めて公開されたオリジナルのAI原則の改訂も発表した。

Google の AI 原則の変更

AI 原則のページにアクセスすると、兵器における AI の使用に関する記述が著しく欠けていることがわかります。2024 年 2 月 22 日のアーカイブ版のこのページには、危害を加える目的で設計された AI 技術の作成や展開を控えるという約束が含まれていました。

人間に傷害を与える、または直接的に容易にすることを主な目的または実施とする武器またはその他の技術。

しかし、このコミットメントは改訂された原則では省略されており、現在は次の 3 つの中核となる信条に重点が置かれています。

  • 大胆なイノベーション:私たちの目標は、個人に力を与え、さまざまな分野の進歩を促進し、経済的および社会的福祉を向上させる AI テクノロジーを開発することです。
  • 責任ある開発と展開: AI の変革的な性質を認識し、厳格なテストと倫理的配慮を通じて AI の安全な開発と実装を確保することに取り組んでいます。
  • 共に進歩する: 当社はパートナーシップを重視し、他者が AI を活用して良い結果を得られるようなテクノロジーの開発に取り組んでいます。

従業員の懸念と倫理的配慮

興味深いことに、Google は AI を軍事目的で使用しないという以前の約束を撤回したことにまだ対処しておらず、この決定は従業員から大きな反発を受けた。2018 年には、約4, 000 人の従業員が、ドローン画像の分析に AI を活用した Project Maven として知られる米国国防総省との同社の契約の終了を求める請願書に署名した。

最近では、グーグル・ディープマインドの従業員も同様の懸念を表明し、同社に軍事組織との関係を断つよう求めた。この行動要請は同社のAI原則に言及したもので、そのような関係は軍事技術の開発を控えるという同社のこれまでの約束と矛盾すると主張している。

詳しくは、Depositphotos.com をご覧ください。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です