
Microsoftの革新的なFoundry Local AIツールにより、Windows PCで言語学習モデル(LLM)のパワーを活用することがよりシンプルになりました。しかも無料です!この堅牢なソリューションは、幅広いAIモデルの探索と実験への扉を開きます。
Foundry Local AIを理解する
MicrosoftのFoundry Localは、インターネット接続を必要とせずにLLMを自社システムに直接デプロイしたい開発者向けに設計された画期的なプラットフォームです。ChatGPTやCopilotといった人気のクラウドAIサービスが提供するエクスペリエンスを再現することはできないかもしれませんが、様々なAIモデルをテストするための優れた手段を提供します。
まだパブリック プレビュー段階であるため、ツールは比較的基本的なものであり、開発が進むにつれて機能強化や新機能が追加される予定であることに留意してください。
Foundry Local AIの前提条件
インストールプロセスに進む前に、Windows PCがFoundry Local AIを実行できる環境であることを確認してください。MicrosoftはハイエンドのCopilot+を推奨していますが、それ以下のスペックでも十分です。
システム要件は次のとおりです。
- Windows 10 または 11、Windows Server 2025、または macOS の 64 ビット版
- 少なくとも 3 GB のハードドライブ容量 (複数のモデルをインストールする場合は 15 GB を推奨)
- 最低 8GB の RAM (最適なパフォーマンスを得るには 16GB が理想的)
- 必須ではありませんが、NVIDIA GPU(2000シリーズ以降)、Qualcomm Snapdragon X Elite(8GB以上)、AMD GPU(6000シリーズ以降)、またはApple Siliconを搭載することが推奨されます。
注:インターネット接続はインストール時と新しいAIモデルの追加時のみ必要です。インストール後はオフラインでもご利用いただけます。また、インストールプロセスを実行するには管理者権限が必要です。
Foundry Local AIのステップバイステップのインストール
従来のソフトウェアとは異なり、Foundry Localのインストールはコマンドラインから実行しますwinget
。ご安心ください!このプロセスを実行するのに高度な技術スキルは必要ありません。
標準的なインストール方法を希望する場合は、代わりにGitHub からダウンロードすることもできます。
WinWindows のインストールを開始するには、 +を押してターミナルウィンドウにアクセスし、ターミナル (管理者)Xを選択します。次に、次のコマンドを実行します。
winget install Microsoft. FoundryLocal

インストールの利用規約を読んで同意し、インストールが進行するまでしばらくお待ちください。インストールには数分かかる場合があります。
macOS ユーザーの場合は、ターミナル ウィンドウに以下のコマンドを入力します。
brew tap microsoft/foundrylocal && brew install foundrylocal
Raspberry Pi に LLM をインストールする場合は、公式サイトにあるそれぞれのインストール手順に従ってください。
最初のAIモデルのインストール
マイクロソフトは、導入時にPhi-3.5-miniなどの軽量モデルのインストールを推奨しています。このモデルは、ディスク容量が限られているものの、AI機能を手軽に導入したい方に最適です。
最初のモデルをインストールするには、ターミナルを開いて次のように入力するだけです。
foundry model run phi-3.5-mini
インストール時間は選択したモデルによって異なりますが、私の場合はPhi-3.5-miniはわずか2分で完了しました。Foundry Local AIの大きな利点は、ハードウェア構成に基づいて最適なモデルバリアントをインストールできることです。

foundry model list
このコマンドは、インストールされている各モデルと、必要なストレージ容量、および具体的な使用例を表示します。現在、利用可能なすべてのモデルはチャット補完タスク用に設計されています。

ローカルAIモデルとの連携
インストールされたAIモデルとのやり取りは、包括的なグラフィカルインターフェースがまだ提供されていないため、すべてコマンドラインから行います。モデルとのやり取りは、従来のAIチャットボットとのやり取りと同じくらい簡単です。「対話モードです。テキストを入力してください」というプロンプトにテキストを入力するだけです。
各モデルにはそれぞれ独自の限界があります。例えば、Phi-3.5-miniモデルを「Foundry Localとは何か?」という質問でテストしたところ、2023年初頭までの知識に関する限界を認めながらも、回答は返ってきました。しかし、回答の精度には改善の余地があるかもしれません。

最適な結果を得るには、徹底的な調査や即時の更新を必要としない、簡単な問い合わせに絞ります。
以前にインストールしたモデルを切り替える場合は、次のコマンドを使用します。
foundry model run modelname
「modelname」を選択したモデルの名前に置き換えることを忘れないでください。
インタラクティブ モード (チャット モード) の場合は、終了コマンドが現在利用できないため、セッションを切り替えるにはターミナル ウィンドウを閉じる必要があることに注意してください。これは間違いなく、ユーザーが待ち望んでいる機能です。
必須のFoundryローカルAIコマンド
包括的なリストは存在しますが、Foundry Localを効果的に操作するには、いくつかのコアコマンドを知っておくだけで十分です。これらのコマンドは、モデル、サービス、キャッシュコマンドの主要なカテゴリをカバーしています。
Foundry Local のすべての一般的なコマンドを表示するには、以下を使用します。
foundry --help
モデル固有のコマンドを調べるには、次のように入力します。
foundry model --help
サービス コマンドを確認するには、次のように入力します。
foundry service --help
キャッシュ コマンドの場合は、次を使用します。
foundry cache --help
これらのコマンドをマスターすれば、今後のアップデートで新しいコマンドが登場しても、Foundry Localインターフェースをスムーズに操作できるようになります。Foundry Localが提供する以上の機能が必要な場合は、ChatGPTやその他の革新的なAIツールといった、実績のある代替ツールの検討をご検討ください。
よくある質問
1. Foundry Local AI で何ができますか?
Foundry Local AIは、インターネット接続を必要とせずにPC上で様々な言語学習モデルを実行できるため、AI技術の実験と開発を可能にします。現在は、チャット補完タスクに重点を置いています。
2. Foundry Local AI を実行するには高価なコンピューターが必要ですか?
いいえ、ハイエンドのセットアップが推奨されますが、Foundry Local AIはミッドレンジのハードウェアでも動作します。指定されたシステム要件を満たしていれば、ツールの機能をお楽しみいただけます。
3. Foundry Local AI の使用に関して既知の制限はありますか?
はい、Phi-3.5-miniのようなモデルには、情報提供期限に関する制限があり、古い情報や不正確な情報が表示される可能性があります。また、コマンドラインインターフェースは機能的ではあるものの、初心者にとってより直感的に操作できるグラフィカルコンポーネントが欠けています。
コメントを残す