MindBridge MCP Server ⚡ The AI Router for Big Brain Moves

MindBridge MCP Server ⚡ The AI Router for Big Brain Moves

site icon
2025.04.13 3
TypeScriptAI路由LLM工作流多模型支持开发效率
MindBridge MCP Server 是一个AI路由服务器,旨在统一、组织和增强大型语言模型(LLM)的工作流程。它支持多种LLM提供商,包括OpenAI、Anthropic、Google、DeepSeek、OpenRouter和Ollama等,并能智能地将任务路由到最适合的模型。MindBridge特别适用于需要复杂推理的任务,支持多模型工作流和AI编排引擎。
View on GitHub

Overview

基本能力

产品定位

MindBridge MCP Server 是一个AI路由服务器,旨在统一、组织和增强大型语言模型(LLM)的工作流程。

核心功能

  • 多LLM支持:支持OpenAI、Anthropic、Google、DeepSeek、OpenRouter和Ollama等多种LLM提供商。
  • 智能路由:根据任务需求智能路由到最适合的模型,特别是那些擅长深度推理的模型。
  • 第二意见工具:可以同时向多个模型提问,比较它们的回答。
  • OpenAI兼容API层:可以无缝集成到任何使用OpenAI端口的工具中。
  • 自动检测提供商:只需添加API密钥,MindBridge会自动处理设置和发现。
  • 高度灵活:支持通过环境变量、MCP配置或JSON进行配置。

适用场景

  • 代理构建者
  • 多模型工作流
  • AI编排引擎
  • 需要复杂推理的任务
  • 构建更智能的AI开发环境
  • LLM驱动的后端
  • 希望避免供应商锁定的用户

工具列表

  1. getSecondOpinion:向多个模型提问,比较它们的回答。
  2. listProviders:列出所有配置的提供商及其可用模型。
  3. listReasoningModels:列出优化用于推理任务的模型。

常见问题解答

  • 如何配置API密钥?:通过编辑.env文件添加API密钥。
  • 如何启动服务器?:使用npm run dev(开发模式)或npm start(生产模式)。

使用教程

使用依赖

确保已安装Node.js和npm。

安装教程

选项1:通过npm安装(推荐)

# 全局安装
npm install -g @pinkpixel/mindbridge

# 使用npx
npx @pinkpixel/mindbridge

选项2:从源代码安装

  1. 克隆仓库: bash git clone https://github.com/pinkpixel-dev/mindbridge.git cd mindbridge
  2. 安装依赖: bash chmod +x install.sh ./install.sh
  3. 配置环境变量: bash cp .env.example .env 编辑.env文件,添加所需的API密钥。

调试方式

  • 开发模式: bash npm run dev
  • 生产模式: bash npm run build npm start
  • 全局安装后: bash mindbridge

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。