LMStudio-MCP

LMStudio-MCP

site icon
2025.03.22 18
Python模型控制本地模型集成开发效率
LMStudio-MCP是一个模型控制协议(MCP)服务器,它允许Claude通过LM Studio与本地运行的LLM模型进行通信。该服务器在Claude和本地运行的LM Studio实例之间建立桥梁,使Claude能够检查LM Studio API的健康状态、列出可用模型、获取当前加载的模型以及使用本地模型生成文本。这使得用户可以通过Claude的界面利用自己本地运行的模型,将Claude的能力与私有模型结合起来。
View on GitHub

Overview

基本能力

产品定位

LMStudio-MCP是一个模型控制协议(MCP)服务器,用于在Claude和本地运行的LM Studio实例之间建立通信桥梁。

核心功能

  • 检查LM Studio API的健康状态
  • 列出所有可用模型
  • 获取当前加载的模型
  • 使用本地模型生成文本

适用场景

  • 开发者希望在Claude的界面中使用本地运行的LLM模型
  • 需要结合Claude的能力和私有模型进行文本生成
  • 需要在本地环境中测试和调试模型

工具列表

  • health_check(): 验证LM Studio API是否可访问
  • list_models(): 获取LM Studio中所有可用模型的列表
  • get_current_model(): 识别当前加载的模型
  • chat_completion(prompt, system_prompt, temperature, max_tokens): 从本地模型生成文本

常见问题解答

  • API连接问题: 确保LM Studio正在运行并加载了模型,检查服务器是否运行在端口1234上,验证防火墙是否阻止连接,尝试使用"127.0.0.1"代替"localhost"。
  • 模型兼容性问题: 某些模型可能不完全支持OpenAI聊天完成API格式,尝试不同的参数值(温度、最大令牌数),如果问题持续存在,考虑切换到更兼容的模型。

使用教程

使用依赖

  • Python 3.7+
  • LM Studio 安装并在本地运行并加载模型
  • Claude with MCP access
  • 所需的Python包(见安装)

安装教程

  1. 克隆此仓库: bash git clone https://github.com/infinitimeless/LMStudio-MCP.git cd LMStudio-MCP

  2. 安装所需的包: bash pip install requests "mcp[cli]" openai

MCP配置

对于Claude连接到这个桥梁,你需要正确配置MCP设置。你可以:

  1. 直接从GitHub使用: json { "lmstudio-mcp": { "command": "uvx", "args": [ "https://github.com/infinitimeless/LMStudio-MCP" ] } }

  2. 使用本地安装: json { "lmstudio-mcp": { "command": "/bin/bash", "args": [ "-c", "cd /path/to/LMStudio-MCP && source venv/bin/activate && python lmstudio_bridge.py" ] } }

调试方式

  1. 启动你的LM Studio应用程序并确保它在端口1234上运行(默认)
  2. 在LM Studio中加载一个模型
  3. 如果在本地运行(不使用uvx),运行LMStudio-MCP服务器: bash python lmstudio_bridge.py
  4. 在Claude中,当提示时连接到MCP服务器,选择"lmstudio-mcp"

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。