ここ 1 週間にわたり、Google の会話型 AI「Gemini」は、人物の画像を生成する能力に偏りが見られるとして厳しい批判にさらされてきました。ユーザーは、Gemini に歴史的背景や架空のシナリオで人物を描くように依頼すると、AI は肌の色が濃い人物を描く可能性が高かったと報告しました。これは、システム内の潜在的なバイアスに関する正当な懸念を引き起こしました。
Googleは声明の中で、さまざまな民族や背景を持つ人々をバランスよく包括的な方法で表現するという点でGeminiがうまく機能しなかったことを認めた。同社は、AIチャットボットが人々に向けて画像を生成する機能を一時的に無効にすることを決定した。
Google は、インクルージョンとダイバーシティが Google にとって非常に重要な原則であると述べています。同社は、自社のテクノロジーが拡散したり、現実世界のバイアスの影響を受けたりすることをいかなる形でも望んでいませんでした。
私たちはすでに、Gemini の画像生成機能に関する最近の問題に対処するために取り組んでいます。これを行っている間、人物の画像生成を一時停止し、改善されたバージョンを近日中に再リリースする予定です。https://t.co/SLxYPGoqOZ
— Google コミュニケーション (@Google_Comms) 2024 年 2 月 22 日
ユーザーが Gemini にイメージの作成を依頼すると、その機能は現在利用できないが、バイアスの問題が適切に解決されれば復帰することを説明するメッセージが表示されます。
専門家らは( AP News経由)、AI画像ジェネレーターはトレーニングデータに偏りがあり、あらゆる背景を持つ人々の表現が欠けていることが多いため、多様性に苦戦していると述べている。 Google は、この機能を再度有効にする前に、Gemini でのこれらの制限に対処することを決意しているようです。同社は、システムがあらゆるタイプの人々を客観的かつバランスのとれた方法で表現できるようにしたいと考えています。
この動きは、 AI テクノロジーを公平かつ包括的なものにするための積極的な一歩とみなされます。この動きの一環として、米国政府は2月に生成AIの安全な開発を促進する措置を講じた。 Apple、OpenAI、Microsoft は、AI に関するプロトコルに取り組むための史上初のコンソーシアムに参加しました。
コメントを残す