Multi-Model Advisor

Multi-Model Advisor

site icon
2025.04.03 25
TypeScriptAI 模型整合决策支持开发效率
Multi-Model Advisor 是一个基于 Model Context Protocol (MCP) 的服务,能够查询多个 Ollama 模型并整合它们的响应,提供对单一问题的多样化 AI 视角。这种"顾问委员会"的方法使得 Claude 能够综合多个观点,提供更全面的答案。
View on GitHub

Overview

基本能力

产品定位

Multi-Model Advisor 旨在通过整合多个 AI 模型的响应,为用户提供更全面、多样化的建议和答案。

核心功能

  • 查询多个 Ollama 模型以获取单一问题的答案
  • 为每个模型分配不同的角色/人格
  • 查看系统上所有可用的 Ollama 模型
  • 为每个模型定制系统提示
  • 通过环境变量进行配置
  • 与 Claude for Desktop 无缝集成

适用场景

  • 需要多角度分析的问题
  • 需要综合不同 AI 模型观点的决策支持
  • 需要多样化创意的场景

工具列表

  1. list-available-models: 显示系统上所有可用的 Ollama 模型
  2. query-models: 向多个模型发送查询问题

常见问题解答

  1. Ollama 连接问题
  2. 确保 Ollama 正在运行 (ollama serve)
  3. 检查 .env 文件中的 OLLAMA_API_URL 是否正确
  4. 尝试在浏览器中访问 http://localhost:11434 验证 Ollama 是否响应

  5. 模型未找到

  6. 检查是否已使用 ollama pull <model-name> 拉取模型
  7. 使用 ollama list 验证确切的模型名称
  8. 使用 list-available-models 工具查看所有可用模型

  9. Claude 未显示 MCP 工具

  10. 确保在更新配置后已重启 Claude
  11. 检查 claude_desktop_config.json 中的绝对路径是否正确
  12. 查看 Claude 的日志以获取错误消息

  13. 内存不足

  14. 尝试指定较小的模型(参见基本用法)
  15. 考虑升级内存

使用教程

使用依赖

  • Node.js 16.x 或更高版本
  • 已安装并运行的 Ollama(参见 Ollama 安装
  • Claude for Desktop(用于完整的顾问体验)

安装教程

通过 Smithery 安装

npx -y @smithery/cli install @YuChenSSR/multi-ai-advisor-mcp --client claude

手动安装

  1. 克隆仓库: bash git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git cd multi-ai-advisor-mcp

  2. 安装依赖: bash npm install

  3. 构建项目: bash npm run build

  4. 安装所需的 Ollama 模型: bash ollama pull gemma3:1b ollama pull llama3.2:1b ollama pull deepseek-r1:1.5b

调试方式

  1. 创建并配置 .env 文件
  2. 连接到 Claude for Desktop
  3. 使用 list-available-models 工具检查可用模型
  4. 使用 query-models 工具测试多模型查询功能

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。