LM Studio MCP Server 설정 방법 (2026)
AI 지원 도구 호출(tool calling)을 위한 MCP 서버로 LM Studio 사용하기
Hypereal로 구축 시작하기
단일 API를 통해 Kling, Flux, Sora, Veo 등에 액세스하세요. 무료 크레딧으로 시작하고 수백만으로 확장하세요.
신용카드 불필요 • 10만 명 이상의 개발자 • 엔터프라이즈 지원
LM Studio MCP 서버 설정 방법 (2026)
LM Studio를 사용하면 세련된 데스크톱 인터페이스를 통해 로컬에서 대규모 언어 모델을 실행할 수 있습니다. MCP(Model Context Protocol) 지원을 통해 이제 LM Studio의 로컬 모델을 MCP 클라이언트에 연결하거나, LM Studio 자체를 외부 MCP 서버에 연결하는 MCP 클라이언트로 사용할 수 있습니다. 이 가이드에서는 LM Studio를 다른 클라이언트를 위한 MCP 서버로 사용하는 방법과 MCP 도구 서버를 LM Studio에 연결하는 방법 두 가지를 모두 다룹니다.
LM Studio란 무엇인가요?
LM Studio는 macOS, Windows 및 Linux에서 오픈 소스 언어 모델을 로컬로 실행하기 위한 데스크톱 애플리케이션입니다. Hugging Face에서 모델을 다운로드하고, 추론 매개변수를 구성하며, 로컬 API 서버를 실행할 수 있는 사용자 친화적인 인터페이스를 제공합니다. 주요 특징은 다음과 같습니다:
- Hugging Face에서 클릭 한 번으로 모델 다운로드
- GPU 가속 (NVIDIA, AMD, Apple Silicon)
- OpenAI 호환 로컬 API 서버
- 대화 관리를 포함한 내장 채팅 인터페이스
- 모델 양자화 및 매개변수 제어
MCP란 무엇인가요?
MCP(Model Context Protocol)는 AI 모델을 외부 도구 및 데이터 소스에 연결하는 Anthropic의 개방형 표준입니다. LM Studio 환경에서 MCP는 두 가지 워크플로우를 가능하게 합니다:
- MCP 서버로서의 LM Studio: 다른 애플리케이션이 MCP 프로토콜을 통해 LM Studio의 로컬 LLM에 연결됩니다.
- MCP 클라이언트로서의 LM Studio: LM Studio가 MCP 도구 서버(파일 시스템, 데이터베이스, API 등)에 연결되어 로컬 모델이 외부 도구를 사용할 수 있게 합니다.
사전 요구 사항
| 요구 사항 | 상세 내용 |
|---|---|
| LM Studio | 버전 0.3.x 이상 (0.3.6 버전부터 MCP 지원 추가) |
| RAM | 최소 8 GB, 16 GB 이상 권장 |
| GPU (선택 사항) | NVIDIA 6 GB 이상 VRAM 또는 Apple Silicon |
| 저장 공간 | 모델 저장을 위한 10 GB 이상의 여유 공간 |
| Node.js | v18+ (커스텀 MCP 서버 사용 시 필요) |
파트 1: LM Studio의 내장 API를 MCP 호환 서버로 사용하기
LM Studio의 로컬 서버는 OpenAI 호환 API를 제공합니다. 이것이 네이티브 MCP 서버는 아니지만, 프록시(proxy)를 사용하여 MCP 클라이언트에 연결할 수 있습니다.
1단계: LM Studio 다운로드 및 설치
lmstudio.ai에서 해당 플랫폼용 LM Studio를 다운로드하여 설치하고 실행합니다.
2단계: 모델 다운로드
LM Studio 검색창에서 도구 호출(tool calling)을 잘 지원하는 모델을 찾습니다:
- Qwen 2.5 7B Instruct -- 뛰어난 도구 호출 지원
- Llama 3.3 8B Instruct -- 강력한 범용 모델
- Mistral 7B Instruct v0.3 -- 속도와 품질의 균형이 좋음
- Hermes 3 8B -- 함수 호출(function calling)에 특화된 튜닝
선택한 모델 옆의 다운로드 버튼을 클릭하고 다운로드가 완료될 때까지 기다립니다.
3단계: 로컬 서버 시작
- LM Studio의 Local Server 탭(
<->아이콘)으로 이동합니다. - 드롭다운에서 다운로드한 모델을 선택합니다.
- 서버를 ON으로 전환합니다.
- 서버 URL을 확인합니다 (기본값:
http://localhost:1234).
이제 서버가 실행 중이며 OpenAI 호환 API 요청을 받을 준비가 되었습니다.
4단계: 서버 확인
cURL 요청으로 서버를 테스트합니다:
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5-7b-instruct",
"messages": [
{"role": "user", "content": "Hello, are you working?"}
],
"temperature": 0.7
}'
5단계: lmstudio-mcp-server를 사용하여 MCP로 브릿지 연결
LM Studio를 정식 MCP 서버로 노출하려면 커뮤니티에서 제공하는 lmstudio-mcp-server 브릿지를 사용하세요:
npm install -g lmstudio-mcp-server
브릿지를 실행합니다:
lmstudio-mcp-server --port 1234
이렇게 하면 LM Studio의 로컬 모델을 통해 도구 호출을 라우팅하는 MCP 서버가 생성됩니다.
6단계: Claude Desktop에 연결
Claude Desktop의 MCP 설정에 브릿지를 추가합니다:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
{
"mcpServers": {
"lmstudio": {
"command": "npx",
"args": ["lmstudio-mcp-server", "--port", "1234"]
}
}
}
Claude Desktop을 재시작합니다. 이제 LM Studio 서버가 사용 가능한 MCP 연결로 표시됩니다.
파트 2: MCP 서버를 LM Studio에 연결하기
LM Studio 0.3.6+ 버전은 외부 MCP 서버 연결을 지원하여, 로컬 모델이 파일 액세스, 웹 검색 또는 데이터베이스 쿼리와 같은 도구를 사용할 수 있도록 합니다.
1단계: LM Studio에서 MCP 설정 열기
- LM Studio를 엽니다.
- Settings (톱니바퀴 아이콘)로 이동합니다.
- MCP 섹션으로 이동합니다.
- Add Server를 클릭합니다.
2단계: MCP 서버 추가
실행 명령어를 지정하여 MCP 서버를 추가할 수 있습니다. 예를 들어, filesystem MCP 서버를 추가하려면 다음과 같이 합니다:
{
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/Users/yourname/Documents"
]
}
}
3단계: 여러 MCP 서버 추가
다음은 몇 가지 유용한 MCP 서버가 포함된 설정 예시입니다:
{
"filesystem": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/Users/yourname/projects"
]
},
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_TOKEN": "ghp_your_github_token"
}
},
"sqlite": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-sqlite",
"/path/to/your/database.db"
]
}
}
4단계: 채팅에서 도구 사용하기
MCP 서버를 추가한 후, 도구 호출을 지원하는 모델(Qwen 2.5, Hermes 3 또는 Llama 3.3 Instruct)을 로드합니다. 이제 채팅에서 모델이 연결된 도구를 사용할 수 있습니다.
상호작용 예시:
- "내 프로젝트 디렉토리에 있는 모든 Python 파일을 나열해줘" (filesystem MCP 사용)
- "내 GitHub 저장소의 열려 있는 이슈(open issues)를 보여줘" (GitHub MCP 사용)
- "users 테이블을 쿼리해서 가입일 순으로 상위 10명을 보여줘" (SQLite MCP 사용)
모델은 사용자의 요청에 따라 호출할 MCP 도구를 자동으로 감지합니다.
MCP 도구 호출을 위한 최적의 모델
모든 모델이 도구 호출을 동일하게 잘 처리하는 것은 아닙니다. MCP 사용에 가장 적합한 옵션은 다음과 같습니다:
| 모델 | 크기 | 도구 호출 성능 | 속도 | 품질 |
|---|---|---|---|---|
| Qwen 2.5 7B Instruct | 4.5 GB (Q4) | 매우 우수 | 빠름 | 높음 |
| Llama 3.3 8B Instruct | 5 GB (Q4) | 우수 | 빠름 | 높음 |
| Hermes 3 8B | 5 GB (Q4) | 매우 우수 | 빠름 | 높음 |
| Qwen 2.5 72B Instruct | 42 GB (Q4) | 매우 우수 | 느림 | 매우 높음 |
| Mistral Small 24B | 14 GB (Q4) | 양호 | 보통 | 높음 |
대부분의 사용자에게 Qwen 2.5 7B Instruct 모델이 도구 호출 신뢰성과 성능 사이에서 가장 좋은 균형을 제공합니다.
LM Studio 서버 매개변수 설정
MCP 워크로드를 위해 로컬 서버를 미세 조정하세요:
{
"contextLength": 8192,
"temperature": 0.1,
"maxTokens": 4096,
"gpu": {
"offloadLayers": -1
}
}
주요 설정:
- contextLength: 복잡한 도구 호출 체인을 위해 8192 이상으로 설정하세요.
- temperature: 신뢰할 수 있는 도구 호출을 위해 0.1 이하로 사용하세요 (값이 높으면 도구 사용이 불안정해질 수 있습니다).
- maxTokens: 모델이 도구 호출 응답을 완료할 수 있도록 충분히 높게 설정하세요.
- GPU offload: 최대 속도를 위해 모든 레이어를 GPU로 오프로드하려면 -1로 설정하세요.
Python에서 LM Studio 사용하기
프로그래밍 방식으로 LM Studio의 MCP 활성화 서버와 상호작용할 수도 있습니다:
from openai import OpenAI
client = OpenAI(
api_key="lm-studio",
base_url="http://localhost:1234/v1"
)
# 도구 정의
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "도시별 현재 날씨 가져오기",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "도시 이름"}
},
"required": ["city"]
}
}
}
]
response = client.chat.completions.create(
model="qwen2.5-7b-instruct",
messages=[
{"role": "user", "content": "도쿄 날씨는 어때?"}
],
tools=tools,
tool_choice="auto"
)
# 모델이 도구 호출을 원하는지 확인
message = response.choices[0].message
if message.tool_calls:
for tool_call in message.tool_calls:
print(f"Tool: {tool_call.function.name}")
print(f"Args: {tool_call.function.arguments}")
문제 해결
"Model does not support tool calling" (모델이 도구 호출을 지원하지 않음) 함수 호출을 지원하는 instruct 튜닝된 모델을 사용하고 있는지 확인하세요. 베이스 모델이나 일부 오래된 미세 조정 모델은 도구 호출 형식을 지원하지 않습니다.
LM Studio에 MCP 서버가 나타나지 않음 MCP 서버 설정을 추가한 후 LM Studio를 재시작하세요. Node.js가 설치되어 있는지 확인하고, 터미널에서 명령어를 수동으로 실행하여 MCP 서버 패키지가 올바르게 설치되는지 확인하세요.
도구 호출 시 오류 발생 temperature를 0.1 이하로 낮추세요. 온도가 높으면 모델이 잘못된 형식의 도구 호출 JSON을 생성할 수 있습니다. 또한 context length가 충분히 높게(최소 4096) 설정되었는지 확인하세요.
도구 호출 시 추론 속도 저하 도구 호출에는 함수 정의 및 응답을 위한 추가 토큰이 필요합니다. 더 작은 모델을 사용하거나 GPU 오프로딩을 늘리세요. 속도와 품질의 절충안으로 Q4_K_M 양자화 사용을 고려해 보세요.
포트 충돌 1234 포트가 이미 사용 중이라면 설정에서 LM Studio 서버 포트를 변경하세요. 변경된 포트에 맞게 모든 MCP 설정도 업데이트해야 합니다.
LM Studio MCP vs. 기타 옵션
| 기능 | LM Studio + MCP | Ollama + MCP | Claude Desktop | Cursor |
|---|---|---|---|---|
| 로컬 모델 | 지원 | 지원 | 지원 안 함 | 지원 안 함 |
| GUI 인터페이스 | 지원 | 지원 안 함 (CLI 전용) | 지원 | 지원 |
| MCP 클라이언트 | 지원 (v0.3.6+) | 브릿지 필요 | 지원 | 지원 |
| MCP 서버 | 브릿지 필요 | 브릿지 필요 | 해당 없음 | 해당 없음 |
| 도구 호출 | 모델에 따라 다름 | 모델에 따라 다름 | 내장됨 | 내장됨 |
| 비용 | 무료 (로컬 컴퓨팅) | 무료 (로컬 컴퓨팅) | Pro 월 $20 | 월 $20 |
| 설정 난이도 | 쉬움 | 보통 | 쉬움 | 쉬움 |
마무리
LM Studio의 MCP 지원은 로컬 AI 모델과 성장하는 MCP 도구 생태계 사이의 간극을 메워줍니다. 로컬 모델을 다른 애플리케이션을 위한 MCP 서버로 사용하든, 로컬 LLM에 외부 도구를 연결하든, 설정 과정은 간단합니다. 성공적인 사용의 핵심은 강력한 도구 호출 능력을 갖춘 모델을 선택하고, 신뢰할 수 있는 함수 실행을 위해 온도를 낮게 유지하는 것입니다.
워크플로우에 이미지, 비디오 또는 대화형 아바타와 같은 AI 미디어 생성이 포함되어 있다면, LLM 워크플로우와 함께 이 모든 것을 처리하는 통합 API인 Hypereal AI를 확인해 보세요.
Hypereal AI 무료 체험하기 -- 35 크레딧 제공, 신용카드 불필요.
