OpenAI Complete MCP Server

OpenAI Complete MCP Server

site icon
2025.03.22 0
JavaScript文本补全大型语言模型内容生成
mcp-openai-complete 是一个基于 MCP(Model Context Protocol)协议的服务器,为大型语言模型(LLMs)提供了一个简洁的接口,用于通过 MCP 协议使用文本补全功能。该服务器充当 LLM 客户端与任何 OpenAI 兼容 API 之间的桥梁,主要适用于基础模型,不支持聊天补全功能。
View on GitHub

Overview

基本能力

产品定位

mcp-openai-complete 是一个文本补全服务,专注于为大型语言模型提供高效的文本生成能力。

核心功能

  • 提供名为 "complete" 的工具,用于生成文本补全。
  • 正确处理异步处理,避免阻塞。
  • 实现超时处理并支持优雅回退。
  • 支持取消正在进行的请求。

适用场景

  • 基础模型的文本补全任务。
  • 需要与 OpenAI 兼容 API 集成的应用。
  • 需要高效处理大量文本生成请求的场景。

工具列表

  • complete:用于生成文本补全的工具,支持多种参数配置,如 promptmax_tokenstemperature 等。

常见问题解答

  • 是否支持聊天补全? 不支持,该服务器仅支持基础模型的文本补全功能。
  • 如何配置 API 密钥和模型? 通过环境变量 OPENAI_API_KEYOPENAI_MODEL 进行配置。

使用教程

使用依赖

确保已安装以下工具:

  • Git
  • Node.js
  • pnpm

安装教程

  1. 克隆仓库: bash git clone <repository-url> cd mcp-openai-complete

  2. 安装依赖: bash pnpm install

  3. 构建项目: bash pnpm run build

配置环境变量

.env 文件中配置以下环境变量:

OPENAI_API_KEY=your-hyperbolic-api-key
OPENAI_API_BASE=https://api.hyperbolic.xyz/v1
OPENAI_MODEL=meta-llama/Meta-Llama-3.1-405B

启动服务器

pnpm start

Docker 使用

  1. 构建 Docker 镜像: bash docker build -t mcp-openai-complete .

  2. 运行容器: bash docker run -it --rm \ -e OPENAI_API_KEY="your-api-key" \ -e OPENAI_MODEL="gpt-3.5-turbo-instruct" \ mcp-openai-complete

或使用 .env 文件: bash docker run -it --rm \ --env-file .env \ mcp-openai-complete

调试方式

在开发模式下运行,支持自动重载:

npm run dev

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。