
LocaLLama MCP Server

2025.04.03
23
TypeScript智能路由成本优化性能优化开发效率
LocaLLama MCP Server 是一个与 Roo Code 或 Cline.Bot 配合使用的 MCP 服务器,旨在通过智能路由编码任务到本地 LLM 或付费 API 来优化成本。其主要功能包括成本与令牌监控、决策引擎、API 集成与配置、回退与错误处理以及基准测试系统。适用于需要平衡成本与性能的开发场景。
View on GitHub
Overview
基本能力
产品定位
LocaLLama MCP Server 是一个智能路由服务,用于在本地 LLM 和付费 API 之间动态分配编码任务,以优化成本和性能。
核心功能
- 成本与令牌监控模块:实时监控 API 服务的上下文使用情况、累计成本、API 令牌价格和可用信用。
- 决策引擎:根据配置的阈值(如令牌数、成本和质量)决定是否将任务路由到本地 LLM 或付费 API。
- API 集成与配置:支持配置本地 LLM 实例(如 LM Studio、Ollama)和 OpenRouter 集成,提供标准化 API 调用。
- 回退与错误处理:在付费 API 数据不可用或本地服务失败时实现回退机制,并提供健壮的日志记录和错误处理。
- 基准测试系统:比较本地 LLM 和付费 API 模型的性能,生成详细报告以支持决策。
适用场景
- 开发者在需要平衡成本与性能时使用本地 LLM 和付费 API。
- 需要动态路由任务以优化令牌使用和成本的编码任务。
- 需要基准测试不同模型性能以做出更明智决策的场景。
工具列表
- clear_openrouter_tracking:清除 OpenRouter 跟踪数据并强制更新。
- benchmark_free_models:对 OpenRouter 的免费模型进行性能基准测试。
- get_free_models:从 OpenRouter 检索免费模型列表。
常见问题解答
- 如何强制更新 OpenRouter 模型列表?
使用
clear_openrouter_tracking
工具清除跟踪数据并强制更新。 - 如何运行基准测试?
使用
node run-benchmarks.js
命令运行基准测试。 - 如何配置本地 LLM 端点?
在
.env
文件中设置LM_STUDIO_ENDPOINT
和OLLAMA_ENDPOINT
。
使用教程
使用依赖
- 确保已安装 Node.js 和 npm。
- 克隆仓库并安装依赖:
bash git clone https://github.com/yourusername/locallama-mcp.git cd locallama-mcp npm install
安装教程
- 构建项目:
bash npm run build
- 复制并配置
.env
文件:bash cp .env.example .env
编辑.env
文件以设置本地 LLM 端点、API 密钥和其他配置。
调试方式
- 启动服务器:
bash npm start
- 运行测试:
bash npm test
- 开发模式:
bash npm run dev
- 运行基准测试:
bash node run-benchmarks.js