
Open WebUIは、堅牢でセルフホスト型のオープンソースプラットフォームとして際立っており、ユーザーが自分のマシンから直接AI言語モデルを操作し、完全なデータ制御を実現できるようにします。Ollamaを含む様々なローカルモデルに対応し、OpenAI互換APIもサポートしています。Open WebUIはDocker、Python、Kubernetesを使用してセットアップできるため、インストールの柔軟性が重要な特徴です。以下のガイドでは、Open WebUIをパソコンにインストールするための包括的な手順をステップバイステップでご紹介します。
Open WebUIを使用するメリット
Open WebUIは、AIを活用するための直感的で柔軟なプラットフォームを提供し、お客様の特定のニーズに合わせてカスタマイズできます。多様なAIモデルをサポートし、主要なオペレーティングシステムと互換性があり、ChatGPTを彷彿とさせるユーザーフレンドリーなインターフェースを備えています。注目すべき機能としては、Markdown、LaTeX、プラグイン統合、そして効率的なコンテンツ保存のための高度なメモリシステムなどが挙げられます。
この多用途ツールを使用すると、プラグインを接続したり、複数のチャットスレッドを管理したり、プロンプトを保存して後で参照したりできます。オープンソースイニシアチブであるOpen WebUIは、コミュニティ主導の機能強化によって成長し、迅速な進化型アップグレードと新機能の実装を促進しています。
Open WebUIのインストール
Docker 経由で Open WebUI を使い始めるには、まずプロジェクト ディレクトリを確立し、そこに移動する必要があります。
mkdir openwebuicd openwebui
次に、お好みのテキストエディタ(例:メモ帳)を使用して、「docker-compose.yml」という名前の新しいファイルを作成します。
nano docker-compose.yml
新しく作成した「docker-compose.yml」ファイルに次の設定を挿入します。
services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" environment: - OLLAMA_USE_GPU=false volumes: - ollama_data:/root/.ollama restart: unless-stopped openwebui: image: ghcr.io/open-webui/open-webui:main container_name: openwebui ports: - "3000:8080" environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama volumes: - open-webui:/app/backend/data restart: unless-stopped volumes: open-webui: ollama_data:
この設定は、 ollamaとOpenWebUIという2つの重要なサービスを初期化します。ollamaサービスはollama/ollamaコンテナを利用し、ポート11434にマッピングし、GPUアクセラレーションを無効にし、データをollama_dataボリュームに保存します。一方、OpenWebUIサービスはopen-webuiコンテナにアクセスし、ポート3000からポート8080にトラフィックをルーティングしながら、ollamaサービスに依存して操作を行います。どちらのサービスも、手動で停止しない限り自動再起動オプションを備えており、名前付きボリュームによってデータの永続性が確保されます。
Docker Compose 構成を保存した後、次のコマンドを使用して Docker サービスを開始します。
docker compose up -d

Open WebUIへのアクセス
コンテナが起動したら、お好みのウェブブラウザを開き、http://localhost:3000にアクセスしてください。この操作により、Open WebUIインターフェースがマシンから直接読み込まれます。セットアッププロセスを開始するには、 「開始」ボタンをクリックしてください。

次に、名前、メールアドレス、パスワードを入力し、「管理者アカウントの作成」ボタンをクリックして管理者アカウントを作成します。

アカウントが作成されたので、ログインして Open WebUI ダッシュボードにアクセスできます。

OllamaでAIモデルをインストールする
Open WebUIは包括的なインターフェースを提供しますが、正しく機能させるには少なくとも1つのローカルAIモデルをインストールする必要があります。幸いなことに、Ollamaを使用するとこのプロセスが簡素化されます。要件と利用可能なシステムリソースに応じて、llama3、mistral、gemma、vicunaなど、さまざまなモデルから選択できます。
このデモでは、大規模なモデルと比較してリソースを効率的に利用することで知られるgemma:2bをインストールします。インストールを開始するには、プロフィールアイコンをクリックし、「管理パネル」オプションを選択して管理ダッシュボードにアクセスしてください。

ダッシュボードで、右上隅にあるダウンロード アイコンを見つけてクリックし、モデルのダウンロードを開始します。

モデル名を指定した後、ダウンロードボタンをクリックして続行します。

モデルのダウンロードが成功すると、成功の確認メッセージが表示されます。

この時点で、 Open WebUI インターフェースからモデルを選択し、クエリに使用できるようになります。

Open WebUIの活用
モデルを選択したら、質問を投げかけ始めることができます。例えば、「Docker Composeとは何ですか?」と質問したところ、Open WebUIは次のような貴重な回答を提供してくれました。

以前の議論の文脈を引き継がずに新しい会話を開始するには、左側のメニューから「新しいチャット」をクリックするだけです。この機能は、以前の議論の影響を受けずに全く異なるトピックに移りたい場合に特に便利です。

検索セクションでは、保存したチャット内の過去の会話や特定のキーワードを検索できます。検索語句を入力するだけで結果が絞り込まれ、以前のインサイトやプロンプトをすぐに確認できます。


ワークスペースは、様々なプロジェクトをシームレスに管理し、混在を防ぐための構造化された環境を提供します。これは、コーディング、ライティング、その他長期的な作業に特に役立ちます。Open WebUIには、以下のタブがあります。
- モデル タブ– コミュニティ モデルまたはプリセットを検出してダウンロードし、外部ソースからモデルをインポートし、インストールされているモデルを管理します。
- ナレッジ タブ– コミュニティ ナレッジ パックを参照するか、AI が応答に利用できるようにファイル (PDF、テキスト、CSV) をインポートします。
- プロンプト タブ– コミュニティ テンプレートを調べ、既存のプロンプトをインポートし、さまざまなチャットに適用します。
- ツール タブ– コード エグゼキュータ、スクレーパ、サマライザなどのツールを検索またはインポートして、自動化や特殊なタスクのためにチャットで直接使用できるようにします。

チャットセクションには AI との会話履歴が表示され、以前のチャットを再開したり、不要になったチャットを削除したりできます。

Open WebUI のチャットコントロール
チャットコントロールパネルでは、AIの会話スタイルと応答を調整するためのオプションが用意されています。システムプロンプトを設定して口調や行動に影響を与えるほか、チャット返信のストリーミング、チャンクサイズ、関数呼び出し、シード値、停止シーケンス、温度、推論の試行回数といった詳細パラメータをカスタマイズできます。これらのパラメータは自由にカスタマイズすることも、標準的なパフォーマンスのためにデフォルト設定のままにすることもできます。

プロフィールアイコンをクリックすると、設定、アーカイブされたチャット、プレイグラウンド、管理パネル、ドキュメント、リリースノート、キーボードショートカット、サインアウト、アクティブユーザーの表示などのオプションを含むユーザーメニューにアクセスできます。

結論
Open WebUIのセットアップには初期投資が必要ですが、そのメリットは労力をはるかに上回ります。このプラットフォームでは、ユーザーはデータを完全に制御し、好みのモデルを選択し、インターフェースをカスタマイズできるため、サードパーティのサーバーへの依存を排除できます。インストール後は、Gemini CLI AIエージェントをターミナルで使用するのと同様に、モデルを完全にオフラインで操作できます。
コメントを残す