OpenRouter MCP Multimodal Server

OpenRouter MCP Multimodal Server

site icon
2025.03.28 5
TypeScript多模态交互文本聊天图像分析内容生成
OpenRouter MCP Multimodal Server 是一个基于 Model Context Protocol (MCP) 的服务,通过 OpenRouter.ai 的多样化模型生态系统提供聊天和图像分析功能。该服务结合了文本聊天功能和强大的图像分析能力,适用于需要多模态交互的应用场景。
View on GitHub

Overview

基本能力

产品定位

OpenRouter MCP Multimodal Server 是一个多模态交互服务,提供文本聊天和图像分析功能,适用于需要结合文本和图像处理的应用场景。

核心功能

  • 文本聊天
  • 直接访问所有 OpenRouter.ai 聊天模型
  • 支持简单文本和多模态对话
  • 可配置的温度和其他参数

  • 图像分析

  • 使用自定义问题分析单张图像
  • 同时处理多张图像
  • 自动图像调整和优化
  • 支持多种图像来源(本地文件、URL、数据 URL)

  • 模型选择

  • 搜索和筛选可用模型
  • 验证模型 ID
  • 获取详细的模型信息
  • 支持默认模型配置

  • 性能优化

  • 智能模型信息缓存
  • 指数退避重试机制
  • 自动处理速率限制

适用场景

  • 多模态聊天应用
  • 图像分析与问答系统
  • 模型测试与验证
  • 自动化图像处理

工具列表

  • mcp_openrouter_chat_completion
  • 发送文本或多模态消息到 OpenRouter 模型
  • 支持自定义模型和参数配置
  • 支持图像 URL 和本地文件处理

使用教程

使用依赖

  • Node.js 18 或更高版本
  • OpenRouter API 密钥(从 OpenRouter Keys 获取)

安装教程

通过 npm 安装

npm install -g @stabgan/openrouter-mcp-multimodal

通过 Docker 运行

docker run -i -e OPENROUTER_API_KEY=your-api-key-here stabgandocker/openrouter-mcp-multimodal:latest

调试方式

使用 npx 运行

{
  "mcpServers": {
    "openrouter": {
      "command": "npx",
      "args": [
        "-y",
        "@stabgan/openrouter-mcp-multimodal"
      ],
      "env": {
        "OPENROUTER_API_KEY": "your-api-key-here",
        "DEFAULT_MODEL": "qwen/qwen2.5-vl-32b-instruct:free"
      }
    }
  }
}

使用 Docker 运行

{
  "mcpServers": {
    "openrouter": {
      "command": "docker",
      "args": [
        "run",
        "--rm",
        "-i",
        "-e", "OPENROUTER_API_KEY=your-api-key-here",
        "-e", "DEFAULT_MODEL=qwen/qwen2.5-vl-32b-instruct:free",
        "stabgandocker/openrouter-mcp-multimodal:latest"
      ]
    }
  }
}

许可证

None