
OpenRouter MCP Server

2025.03.28
36
TypeScriptAI模型集成API接口内容生成
OpenRouter MCP Server 是一个提供与 OpenRouter.ai 多样化模型生态系统无缝集成的服务。它通过统一的、类型安全的接口访问各种 AI 模型,并内置了缓存、速率限制和错误处理功能。
View on GitHub
Overview
基本能力
产品定位
OpenRouter MCP Server 是一个提供与 OpenRouter.ai 多样化模型生态系统无缝集成的服务。它通过统一的、类型安全的接口访问各种 AI 模型,并内置了缓存、速率限制和错误处理功能。
核心功能
- 模型访问
- 直接访问所有 OpenRouter.ai 模型
- 自动模型验证和能力检查
-
默认模型配置支持
-
性能优化
- 智能模型信息缓存(1小时过期)
- 自动速率限制管理
-
失败请求的指数退避
-
统一响应格式
- 所有响应使用一致的
ToolResult
结构 - 通过
isError
标志清晰识别错误 - 带有上下文的结构化错误消息
适用场景
- 需要访问多种 AI 模型的应用程序
- 需要统一接口管理不同 AI 模型的项目
- 需要自动处理速率限制和错误恢复的应用
工具列表
- chat_completion
- 向 OpenRouter.ai 模型发送消息
-
支持自定义模型、消息和温度参数
-
search_models
- 搜索和过滤可用模型
-
可根据查询、提供商、最小上下文长度和能力进行筛选
-
get_model_info
-
获取特定模型的详细信息
-
validate_model
- 检查模型 ID 是否有效
常见问题解答
- 错误处理
- 服务器提供带有上下文信息的结构化错误
-
常见错误类别包括验证错误、API 错误、速率限制和内部错误
-
速率限制
- 服务器自动管理速率限制
- 错误响应会明确指示速率限制问题
使用教程
使用依赖
- 从 OpenRouter Keys 获取 OpenRouter API 密钥
- 选择一个默认模型(可选)
安装教程
pnpm install @mcpservers/openrouterai
配置
在 MCP 设置配置文件中添加以下内容(cline_mcp_settings.json
或 claude_desktop_config.json
):
{
"mcpServers": {
"openrouterai": {
"command": "npx",
"args": ["@mcpservers/openrouterai"],
"env": {
"OPENROUTER_API_KEY": "your-api-key-here",
"OPENROUTER_DEFAULT_MODEL": "optional-default-model"
}
}
}
}
调试方式
# 安装依赖
pnpm install
# 构建项目
pnpm run build
# 运行测试
pnpm test