Claude-LMStudio-Bridge

Claude-LMStudio-Bridge

site icon
2025.03.22 1
Python模型桥接本地模型交互开发效率
Claude-LMStudio-Bridge_V2 是一个简单的模型控制协议(MCP)服务器,用于在 Claude 和本地运行的 LM Studio 中的 LLM 模型之间建立通信桥梁。该桥接器允许 Claude 向本地运行的模型发送提示并接收其响应,适用于比较模型响应、访问专业本地模型、在 API 配额有限时运行查询以及保持敏感查询本地化等场景。
View on GitHub

Overview

基本能力

产品定位

Claude-LMStudio-Bridge_V2 是一个用于连接 Claude 和本地 LM Studio 模型的 MCP 服务器,旨在提供本地模型与 Claude 之间的无缝交互能力。

核心功能

  • 允许 Claude 与本地 LM Studio 中的 LLM 模型通信
  • 支持发送提示到本地模型并接收响应
  • 提供多种 MCP 工具用于模型管理和交互

适用场景

  • 比较 Claude 与其他模型的响应
  • 访问特定任务的本地专业模型
  • 在 Claude API 配额有限时运行查询
  • 保持敏感查询完全本地化

工具列表

  • health_check: 检查 LM Studio API 是否可访问
  • list_models: 获取 LM Studio 中可用模型的列表
  • get_current_model: 检查当前加载的模型
  • chat_completion: 向当前模型发送提示

常见问题解答

  • 依赖问题:尝试直接安装依赖 pip install requests "mcp[cli]" openai anthropic-mcp
  • 连接问题:确保 LM Studio 本地服务器正在运行(默认端口 1234)
  • 配置问题:如需更改端口,修改 lmstudio_bridge.py 中的 LMSTUDIO_API_BASE 变量

使用教程

使用依赖

  • Python 3.8+
  • Anthropic Claude(具有 MCP 功能)
  • 本地运行的 LM Studio
  • LM Studio 中加载的本地 LLM 模型

安装教程

  1. 克隆仓库: bash git clone https://github.com/infinitimeless/Claude-LMStudio-Bridge_V2.git cd Claude-LMStudio-Bridge_V2

  2. 创建虚拟环境: bash python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate

  3. 安装依赖(任选一种方式):

使用 requirements.txt: bash pip install -r requirements.txt

或直接安装: bash pip install requests "mcp[cli]" openai anthropic-mcp

调试方式

  1. 启动 LM Studio 并加载模型
  2. 确保 LM Studio 本地服务器正在运行(默认端口 1234)
  3. 运行桥接服务器: bash python lmstudio_bridge.py
  4. 在 Claude 界面中启用 MCP 服务器并指向本地运行的桥接器
  5. 使用 MCP 工具与本地模型交互

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。