Connect 2024で、Meta の創設者兼 CEO であるマーク・ザッカーバーグは、Llama 3.2のデビューを発表しました。この新しいバージョンでは、 11Bおよび90Bのパラメータを備えた小規模および中規模のビジョン大規模言語モデル (LLM)と、デバイス上のテキストのみのモデル (1B および 3B のパラメータ) が導入されています。特に、新しい 11B および 90B ビジョン モデルは、Llama のマルチモーダル機能への最初の取り組みを表しています。
Microsoft は、Llama 3.2 11B Vision Instruct および Llama 3.2 90B Vision Instruct モデルがAzure AI モデル カタログで利用できるようになったことも発表しました。さらに、開発者はまもなく、これらの強化されたモデルに対して、Models-as-a-Service (MaaS) サーバーレス API を介した推論を期待できます。
Azure 上のマネージド コンピューティング推論に利用可能な Llama 3.2 モデルは次のとおりです。
- 炎 3.2 1B
- ラマ 3.2 3B
- ラマ 3.2-1B-指導
- ラマ 3.2-3B-指導
- ラマガード 3 1B
- ラマ 3.2 11B ビジョン インストラクト
- ラマ 3.2 90B ビジョン インストラクト
- ラマガード 3 11B ビジョン
現在、微調整は Llama 3.2 1B Instruct および 3B Instruct モデルにのみ提供されています。ただし、Microsoft は今後数か月以内に、微調整機能をその他の Llama 3.2 モデル コレクションに拡張する予定です。これらのモデルは、1 分あたり 20 万トークンと1 分あたり 1,000 リクエストの制限で動作します。より高いレート制限を必要とする開発者は、調整の可能性について Microsoft チームに問い合わせることをお勧めします。
さらに、Google は、Llama 3.2 のすべてのモデルが Vertex AI Model Garden で利用可能になり、セルフサービスによる展開が可能になったことを発表しました。現在、Google の MaaS ソリューションを通じてプレビューで提供されているのは、Llama 3.2 90B モデルのみです。
Llama 3.2 モデルと合わせて、Meta はLlama Stack ディストリビューションを導入しました。これらのディストリビューションは、シングルノード、オンプレミス、クラウド、デバイス上のセットアップなど、さまざまな環境で開発者が Llama モデルを効率的に利用できるように設計されています。Meta チームは次の内容を発表しました。
- Llama Stack ディストリビューションを作成、構成、実行するための Llama CLI (コマンドライン インターフェイス)
- クライアントコードは、Python、Node.js、Kotlin、Swift などの複数のプログラミング言語で利用できます。
- Llama Stack ディストリビューション サーバーおよびエージェント API プロバイダー用の Docker コンテナ
- さまざまなディストリビューション:
- Meta内部実装とOllamaによる単一ノードLlamaスタック分散
- AWS、Databricks、Fireworks、Together を介した Cloud Llama Stack の配布
- PyTorch ExecuTorch を使用して実装された iOS 上のオンデバイス Llama スタック配布
- DellがサポートするオンプレミスのLlamaスタックディストリビューション
Llama 3.2 モデルと Llama Stack ディストリビューションの展開は、開発者にとって堅牢な AI モデルへのアクセス性を向上させる上で極めて重要な進歩を意味します。この進歩により、さまざまな分野でイノベーションが促進され、AI の採用が広がることが期待されます。
コメントを残す