
LMStudio-MCP

2025.03.22
18
Python模型控制本地模型集成开发效率
LMStudio-MCP是一个模型控制协议(MCP)服务器,它允许Claude通过LM Studio与本地运行的LLM模型进行通信。该服务器在Claude和本地运行的LM Studio实例之间建立桥梁,使Claude能够检查LM Studio API的健康状态、列出可用模型、获取当前加载的模型以及使用本地模型生成文本。这使得用户可以通过Claude的界面利用自己本地运行的模型,将Claude的能力与私有模型结合起来。
View on GitHub
Overview
基本能力
产品定位
LMStudio-MCP是一个模型控制协议(MCP)服务器,用于在Claude和本地运行的LM Studio实例之间建立通信桥梁。
核心功能
- 检查LM Studio API的健康状态
- 列出所有可用模型
- 获取当前加载的模型
- 使用本地模型生成文本
适用场景
- 开发者希望在Claude的界面中使用本地运行的LLM模型
- 需要结合Claude的能力和私有模型进行文本生成
- 需要在本地环境中测试和调试模型
工具列表
health_check()
: 验证LM Studio API是否可访问list_models()
: 获取LM Studio中所有可用模型的列表get_current_model()
: 识别当前加载的模型chat_completion(prompt, system_prompt, temperature, max_tokens)
: 从本地模型生成文本
常见问题解答
- API连接问题: 确保LM Studio正在运行并加载了模型,检查服务器是否运行在端口1234上,验证防火墙是否阻止连接,尝试使用"127.0.0.1"代替"localhost"。
- 模型兼容性问题: 某些模型可能不完全支持OpenAI聊天完成API格式,尝试不同的参数值(温度、最大令牌数),如果问题持续存在,考虑切换到更兼容的模型。
使用教程
使用依赖
- Python 3.7+
- LM Studio 安装并在本地运行并加载模型
- Claude with MCP access
- 所需的Python包(见安装)
安装教程
-
克隆此仓库:
bash git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCP
-
安装所需的包:
bash pip install requests "mcp[cli]" openai
MCP配置
对于Claude连接到这个桥梁,你需要正确配置MCP设置。你可以:
-
直接从GitHub使用:
json { "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }
-
使用本地安装:
json { "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }
调试方式
- 启动你的LM Studio应用程序并确保它在端口1234上运行(默认)
- 在LM Studio中加载一个模型
- 如果在本地运行(不使用
uvx
),运行LMStudio-MCP服务器:bash python lmstudio_bridge.py
- 在Claude中,当提示时连接到MCP服务器,选择"lmstudio-mcp"