LM Studio MCP Server のセットアップ方法 (2026年版)
AIによるツール呼び出し(tool calling)のために、LM StudioをMCPサーバーとして使用する
Hyperealで構築を始めよう
Kling、Flux、Sora、Veoなどに単一のAPIでアクセス。無料クレジットで開始、数百万規模まで拡張可能。
クレジットカード不要 • 10万人以上の開発者 • エンタープライズ対応
LM Studio MCP サーバーの設定方法 (2026年版)
LM Studio を使用すると、洗練されたデスクトップインターフェースで大規模言語モデル(LLM)をローカルで実行できます。MCP(Model Context Protocol)のサポートにより、LM Studio のローカルモデルを MCP クライアントに接続したり、LM Studio 自体を外部の MCP サーバーに接続する MCP クライアントとして使用したりできるようになりました。このガイドでは、LM Studio を他のクライアント用の MCP サーバーとして使用する方法と、MCP ツールサーバーを LM Studio に接続する方法の両方を解説します。
LM Studio とは?
LM Studio は、macOS、Windows、Linux でオープンソースの言語モデルをローカルで実行するためのデスクトップアプリケーションです。Hugging Face からモデルをダウンロードし、推論パラメータを設定し、ローカル API サーバーを実行するためのユーザーフレンドリーなインターフェースを提供します。主な機能は以下の通りです:
- Hugging Face からのワンクリック・モデルダウンロード
- GPU 加速(NVIDIA、AMD、Apple Silicon)
- OpenAI 互換のローカル API サーバー
- 会話管理機能を備えた組み込みチャットインターフェース
- モデルの量子化とパラメータ制御
MCP とは?
MCP(Model Context Protocol)は、AI モデルを外部ツールやデータソースに接続するための Anthropic によるオープンスタンダードです。LM Studio の文脈では、MCP により以下の 2 つのワークフローが可能になります:
- MCP サーバーとしての LM Studio: 他のアプリケーションが MCP プロトコルを介して LM Studio のローカル LLM に接続します。
- MCP クライアントとしての LM Studio: LM Studio が MCP ツールサーバー(ファイルシステム、データベース、API など)に接続し、ローカルモデルが外部ツールを使用できるようにします。
前提条件
| 要件 | 詳細 |
|---|---|
| LM Studio | バージョン 0.3.x 以降(MCP サポートは 0.3.6 で追加) |
| RAM | 最小 8 GB、16 GB 以上推奨 |
| GPU (オプション) | NVIDIA 6 GB 以上の VRAM または Apple Silicon |
| ストレージ | モデル用に 10 GB 以上の空き容量 |
| Node.js | v18 以降(カスタム MCP サーバー用) |
パート 1: LM Studio の組み込み API を MCP 互換サーバーとして使用する
LM Studio のローカルサーバーは OpenAI 互換の API を公開しています。これはネイティブの MCP サーバーではありませんが、プロキシを使用して MCP クライアントにブリッジできます。
ステップ 1: LM Studio のダウンロードとインストール
lmstudio.ai からお使いのプラットフォーム用の LM Studio をダウンロードし、インストールして起動します。
ステップ 2: モデルのダウンロード
LM Studio の検索バーで、ツール呼び出し(Tool Calling)を適切にサポートしているモデルを探します:
- Qwen 2.5 7B Instruct -- 優れたツール呼び出しサポート
- Llama 3.3 8B Instruct -- 強力な汎用モデル
- Mistral 7B Instruct v0.3 -- 速度と品質のバランスが良い
- Hermes 3 8B -- 関数呼び出し(Function Calling)に特化して調整済み
選択したモデルの横にあるダウンロードボタンをクリックし、完了するまで待ちます。
ステップ 3: ローカルサーバーの起動
- LM Studio の Local Server タブ(
<->アイコン)に移動します。 - ドロップダウンからダウンロードしたモデルを選択します。
- サーバーを ON に切り替えます。
- サーバー URL をメモします(デフォルト:
http://localhost:1234)。
これでサーバーが稼働し、OpenAI 互換の API リクエストを受け付ける状態になります。
ステップ 4: サーバーの確認
cURL リクエストでサーバーをテストします:
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5-7b-instruct",
"messages": [
{"role": "user", "content": "Hello, are you working?"}
],
"temperature": 0.7
}'
ステップ 5: lmstudio-mcp-server による MCP へのブリッジ
LM Studio を適切な MCP サーバーとして公開するには、コミュニティが提供する lmstudio-mcp-server ブリッジを使用します。
npm install -g lmstudio-mcp-server
ブリッジを実行します:
lmstudio-mcp-server --port 1234
これにより、LM Studio のローカルモデルを介してツール呼び出しをルーティングする MCP サーバーが作成されます。
ステップ 6: Claude Desktop への接続
Claude Desktop の MCP 設定にブリッジを追加します:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
{
"mcpServers": {
"lmstudio": {
"command": "npx",
"args": ["lmstudio-mcp-server", "--port", "1234"]
}
}
}
Claude Desktop を再起動します。LM Studio サーバーが利用可能な MCP 接続として表示されます。
パート 2: MCP サーバーを LM Studio に接続する
LM Studio 0.3.6 以降では外部 MCP サーバーへの接続をサポートしており、ローカルモデルにファイルアクセス、ウェブ検索、データベースクエリなどのツールを使用する能力を与えられます。
ステップ 1: LM Studio で MCP 設定を開く
- LM Studio を開きます。
- Settings(歯車アイコン)に移動します。
- MCP セクションに移動します。
- Add Server をクリックします。
ステップ 2: MCP サーバーの追加
実行コマンドを指定して MCP サーバーを追加できます。例えば、ファイルシステム MCP サーバーを追加する場合:
{
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/Users/yourname/Documents"
]
}
}
ステップ 3: 複数の MCP サーバーを追加する
以下は、いくつかの便利な MCP サーバーを含む設定例です:
{
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/Users/yourname/projects"
]
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_TOKEN": "ghp_your_github_token"
}
},
"sqlite": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-sqlite",
"/path/to/your/database.db"
]
}
}
ステップ 4: チャットでツールを使用する
MCP サーバーを追加した後、ツール呼び出しをサポートするモデル(Qwen 2.5、Hermes 3、または Llama 3.3 Instruct)をロードします。チャット内で、モデルは接続されたツールを使用できるようになります。
インタラクションの例:
- 「projects ディレクトリ内のすべての Python ファイルをリストアップして」(filesystem MCP を使用)
- 「私の GitHub リポジトリにあるオープンな Issue を見せて」(GitHub MCP を使用)
- 「users テーブルをクエリして、登録日順のトップ 10 を教えて」(SQLite MCP を使用)
モデルはリクエストに基づいて、呼び出すべき MCP ツールを自動的に検知します。
MCP ツール呼び出しに最適なモデル
すべてのモデルがツール呼び出しを同等にうまく処理できるわけではありません。MCP 利用に最適なオプションは以下の通りです:
| モデル | サイズ | ツール呼び出し | 速度 | 品質 |
|---|---|---|---|---|
| Qwen 2.5 7B Instruct | 4.5 GB (Q4) | 優秀 | 高速 | 高 |
| Llama 3.3 8B Instruct | 5 GB (Q4) | 非常に良い | 高速 | 高 |
| Hermes 3 8B | 5 GB (Q4) | 優秀 | 高速 | 高 |
| Qwen 2.5 72B Instruct | 42 GB (Q4) | 優秀 | 低速 | 非常に高い |
| Mistral Small 24B | 14 GB (Q4) | 良い | 中速 | 高 |
ほとんどのユーザーにとって、Qwen 2.5 7B Instruct がツール呼び出しの信頼性とパフォーマンスのバランスが最も優れています。
LM Studio サーバーパラメータの設定
MCP ワークロードに合わせてローカルサーバーを微調整します:
{
"contextLength": 8192,
"temperature": 0.1,
"maxTokens": 4096,
"gpu": {
"offloadLayers": -1
}
}
主要な設定:
- contextLength: 複雑なツール呼び出しチェーンのために 8192 以上に設定します。
- temperature: 信頼性の高いツール呼び出しのために 0.1 以下を使用します(値が高いとツールの使用が不安定になります)。
- maxTokens: モデルがツール呼び出しのレスポンスを完了できる十分な高さを設定します。
- GPU offload: すべてのレイヤーを GPU にオフロードして最大速度を出すために -1 に設定します。
Python での LM Studio の使用
LM Studio の MCP 有効化サーバーとプログラムでやり取りすることも可能です:
from openai import OpenAI
client = OpenAI(
api_key="lm-studio",
base_url="http://localhost:1234/v1"
)
# ツールの定義
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get current weather for a city",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "City name"}
},
"required": ["city"]
}
}
}
]
response = client.chat.completions.create(
model="qwen2.5-7b-instruct",
messages=[
{"role": "user", "content": "What is the weather in Tokyo?"}
],
tools=tools,
tool_choice="auto"
)
# モデルがツールを呼び出したいかチェック
message = response.choices[0].message
if message.tool_calls:
for tool_call in message.tool_calls:
print(f"Tool: {tool_call.function.name}")
print(f"Args: {tool_call.function.arguments}")
トラブルシューティング
「Model does not support tool calling(モデルがツール呼び出しをサポートしていません)」 関数呼び出しをサポートする Instruct チューニング済みのモデルを使用しているか確認してください。ベースモデルや一部の古いファインチューンモデルはツール呼び出し形式をサポートしていません。
MCP サーバーが LM Studio に表示されない MCP サーバー設定を追加した後、LM Studio を再起動してください。Node.js がインストールされていること、およびターミナルでコマンドを手動実行して MCP サーバーパッケージが正しくインストールされていることを確認してください。
ツール呼び出しがエラーを返す temperature を 0.1 以下に下げてください。温度が高いと、モデルが不正な形式のツール呼び出し JSON を生成する可能性があります。また、コンテキスト長(context length)が十分に高く設定されていることを確認してください(最低 4096)。
ツール呼び出し時の推論が遅い ツール呼び出しは、関数の定義とレスポンスのために追加のトークンを必要とします。より小さなモデルを使用するか、GPU オフロードを増やしてください。速度と品質のトレードオフが最適な Q4_K_M 量子化の使用を検討してください。
ポートの競合 ポート 1234 が既に使用されている場合は、設定で LM Studio サーバーのポートを変更してください。その後、すべての MCP 設定を新しいポートに合わせて更新します。
LM Studio MCP と他の選択肢の比較
| 機能 | LM Studio + MCP | Ollama + MCP | Claude Desktop | Cursor |
|---|---|---|---|---|
| ローカルモデル | 対応 | 対応 | 非対応 | 非対応 |
| GUI インターフェース | あり | なし (CLI のみ) | あり | あり |
| MCP クライアント | 対応 (v0.3.6+) | ブリッジ経由 | 対応 | 対応 |
| MCP サーバー | ブリッジ経由 | ブリッジ経由 | N/A | N/A |
| ツール呼び出し | モデルに依存 | モデルに依存 | 組み込み済み | 組み込み済み |
| コスト | 無料 (ローカル計算) | 無料 (ローカル計算) | 月額 $20 (Pro) | 月額 $20 |
| 設定の難易度 | 簡単 | 普通 | 簡単 | 簡単 |
まとめ
LM Studio の MCP サポートは、ローカル AI モデルと拡大を続ける MCP ツールのエコシステムの架け橋となります。ローカルモデルを他のアプリ用の MCP サーバーとして使用する場合でも、外部ツールをローカル LLM に接続する場合でも、セットアップは簡単です。成功の鍵は、強力なツール呼び出し能力を持つモデルを選択し、信頼性の高い関数実行のために temperature を低く保つことです。
もしワークフローに画像、ビデオ、話すアバターなどの AI メディア生成も含まれる場合は、LLM ワークフローと並行してそれらすべてを処理できる統合 API、Hypereal AI をチェックしてみてください。
Hypereal AI を無料で試す -- 35 クレジット付与、クレジットカード不要。
