Azure AI コンテンツ セーフティは、さまざまなアプリケーションやサービス内の有害なユーザー生成コンテンツや AI 生成コンテンツを識別するために設計された、Microsoft の革新的な AI ソリューションです。このサービスにはテキスト API と画像 API の両方が含まれており、開発者が不要なコンテンツを効果的にフラグ付けできるようになります。
Azure AI コンテンツ セーフティの一部である Groundedness 検出 API は、大規模言語モデルからの応答がユーザーが選択したソース マテリアルに基づいているかどうかを確認できます。現在の大規模言語モデルは、不正確な情報や事実に基づかない情報 (幻覚と呼ばれることが多い) を生成することがあるため、この API は開発者が AI 出力のそのような不正確さを認識するのに役立ちます。
最近、マイクロソフトは、開発者が幻覚コンテンツをリアルタイムで検出して修正し、エンドユーザーが一貫して事実に基づいた正確な AI 生成コンテンツを受け取ることができるようにするための修正機能のプレビューを発表しました。
修正機能の動作は次のとおりです。
- アプリケーション開発者は修正機能を有効にします。
- 根拠のない文が検出されると、修正を求める新しいリクエストが生成 AI モデルに送信されます。
- 大規模言語モデルは、グラウンディングされていない文をグラウンディングされた文書と比較して評価します。
- 基礎文書に関連する内容が欠けている文は完全に除外される場合があります。
- 基礎ドキュメント内にコンテンツが見つかった場合、基礎モデルは基礎のない文をドキュメントに合わせて書き換えます。
修正機能に加えて、Microsoft はハイブリッド Azure AI コンテンツ セーフティ (AACS)のパブリック プレビューも導入しました。この取り組みにより、開発者はクラウドとデバイスの両方でコンテンツ セーフティ対策を実装できます。AACS Embedded SDK により、インターネットに接続していなくても、デバイス上で直接リアルタイムのコンテンツ セーフティ チェックを実行できます。
さらに、マイクロソフトは、コードを生成する生成 AI アプリケーションで利用して、LLM が保護されたコードを生成したかどうかを識別できる、コード用の保護されたマテリアル検出のプレビューを発表しました。当初は Azure OpenAI サービスを通じてのみアクセス可能だったこの機能は、コードを生成する他の生成 AI モデルとの統合に利用できるようになりました。
これらのアップデートにより、AI コンテンツ モデレーション テクノロジーの信頼性とアクセシビリティが大幅に向上し、さまざまなプラットフォームや環境にわたってより安全で信頼性の高い AI アプリケーションが促進されます。
コメントを残す