OpenRouter MCP Server

OpenRouter MCP Server

site icon
2025.03.28 36
TypeScriptAI模型集成API接口内容生成
OpenRouter MCP Server 是一个提供与 OpenRouter.ai 多样化模型生态系统无缝集成的服务。它通过统一的、类型安全的接口访问各种 AI 模型,并内置了缓存、速率限制和错误处理功能。
View on GitHub

Overview

基本能力

产品定位

OpenRouter MCP Server 是一个提供与 OpenRouter.ai 多样化模型生态系统无缝集成的服务。它通过统一的、类型安全的接口访问各种 AI 模型,并内置了缓存、速率限制和错误处理功能。

核心功能

  • 模型访问
  • 直接访问所有 OpenRouter.ai 模型
  • 自动模型验证和能力检查
  • 默认模型配置支持

  • 性能优化

  • 智能模型信息缓存(1小时过期)
  • 自动速率限制管理
  • 失败请求的指数退避

  • 统一响应格式

  • 所有响应使用一致的 ToolResult 结构
  • 通过 isError 标志清晰识别错误
  • 带有上下文的结构化错误消息

适用场景

  • 需要访问多种 AI 模型的应用程序
  • 需要统一接口管理不同 AI 模型的项目
  • 需要自动处理速率限制和错误恢复的应用

工具列表

  1. chat_completion
  2. 向 OpenRouter.ai 模型发送消息
  3. 支持自定义模型、消息和温度参数

  4. search_models

  5. 搜索和过滤可用模型
  6. 可根据查询、提供商、最小上下文长度和能力进行筛选

  7. get_model_info

  8. 获取特定模型的详细信息

  9. validate_model

  10. 检查模型 ID 是否有效

常见问题解答

  • 错误处理
  • 服务器提供带有上下文信息的结构化错误
  • 常见错误类别包括验证错误、API 错误、速率限制和内部错误

  • 速率限制

  • 服务器自动管理速率限制
  • 错误响应会明确指示速率限制问题

使用教程

使用依赖

  1. OpenRouter Keys 获取 OpenRouter API 密钥
  2. 选择一个默认模型(可选)

安装教程

pnpm install @mcpservers/openrouterai

配置

在 MCP 设置配置文件中添加以下内容(cline_mcp_settings.jsonclaude_desktop_config.json):

{
  "mcpServers": {
    "openrouterai": {
      "command": "npx",
      "args": ["@mcpservers/openrouterai"],
      "env": {
        "OPENROUTER_API_KEY": "your-api-key-here",
        "OPENROUTER_DEFAULT_MODEL": "optional-default-model"
      }
    }
  }
}

调试方式

# 安装依赖
pnpm install

# 构建项目
pnpm run build

# 运行测试
pnpm test

许可证

该项目遵循 Apache-2.0 开源许可条款,请参阅 Apache-2.0 了解完整条款。