
MindBridge MCP Server ⚡ The AI Router for Big Brain Moves

2025.04.13
3
TypeScriptAI路由LLM工作流多模型支持开发效率
MindBridge MCP Server 是一个AI路由服务器,旨在统一、组织和增强大型语言模型(LLM)的工作流程。它支持多种LLM提供商,包括OpenAI、Anthropic、Google、DeepSeek、OpenRouter和Ollama等,并能智能地将任务路由到最适合的模型。MindBridge特别适用于需要复杂推理的任务,支持多模型工作流和AI编排引擎。
View on GitHub
Overview
基本能力
产品定位
MindBridge MCP Server 是一个AI路由服务器,旨在统一、组织和增强大型语言模型(LLM)的工作流程。
核心功能
- 多LLM支持:支持OpenAI、Anthropic、Google、DeepSeek、OpenRouter和Ollama等多种LLM提供商。
- 智能路由:根据任务需求智能路由到最适合的模型,特别是那些擅长深度推理的模型。
- 第二意见工具:可以同时向多个模型提问,比较它们的回答。
- OpenAI兼容API层:可以无缝集成到任何使用OpenAI端口的工具中。
- 自动检测提供商:只需添加API密钥,MindBridge会自动处理设置和发现。
- 高度灵活:支持通过环境变量、MCP配置或JSON进行配置。
适用场景
- 代理构建者
- 多模型工作流
- AI编排引擎
- 需要复杂推理的任务
- 构建更智能的AI开发环境
- LLM驱动的后端
- 希望避免供应商锁定的用户
工具列表
- getSecondOpinion:向多个模型提问,比较它们的回答。
- listProviders:列出所有配置的提供商及其可用模型。
- listReasoningModels:列出优化用于推理任务的模型。
常见问题解答
- 如何配置API密钥?:通过编辑
.env
文件添加API密钥。 - 如何启动服务器?:使用
npm run dev
(开发模式)或npm start
(生产模式)。
使用教程
使用依赖
确保已安装Node.js和npm。
安装教程
选项1:通过npm安装(推荐)
# 全局安装
npm install -g @pinkpixel/mindbridge
# 使用npx
npx @pinkpixel/mindbridge
选项2:从源代码安装
- 克隆仓库:
bash git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
- 安装依赖:
bash chmod +x install.sh ./install.sh
- 配置环境变量:
bash cp .env.example .env
编辑.env
文件,添加所需的API密钥。
调试方式
- 开发模式:
bash npm run dev
- 生产模式:
bash npm run build npm start
- 全局安装后:
bash mindbridge