
OpenAI Complete MCP Server

2025.03.22
0
JavaScript文本补全大型语言模型内容生成
mcp-openai-complete 是一个基于 MCP(Model Context Protocol)协议的服务器,为大型语言模型(LLMs)提供了一个简洁的接口,用于通过 MCP 协议使用文本补全功能。该服务器充当 LLM 客户端与任何 OpenAI 兼容 API 之间的桥梁,主要适用于基础模型,不支持聊天补全功能。
View on GitHub
Overview
基本能力
产品定位
mcp-openai-complete 是一个文本补全服务,专注于为大型语言模型提供高效的文本生成能力。
核心功能
- 提供名为 "complete" 的工具,用于生成文本补全。
- 正确处理异步处理,避免阻塞。
- 实现超时处理并支持优雅回退。
- 支持取消正在进行的请求。
适用场景
- 基础模型的文本补全任务。
- 需要与 OpenAI 兼容 API 集成的应用。
- 需要高效处理大量文本生成请求的场景。
工具列表
- complete:用于生成文本补全的工具,支持多种参数配置,如
prompt
、max_tokens
、temperature
等。
常见问题解答
- 是否支持聊天补全? 不支持,该服务器仅支持基础模型的文本补全功能。
- 如何配置 API 密钥和模型? 通过环境变量
OPENAI_API_KEY
和OPENAI_MODEL
进行配置。
使用教程
使用依赖
确保已安装以下工具:
- Git
- Node.js
- pnpm
安装教程
-
克隆仓库:
bash git clone <repository-url> cd mcp-openai-complete
-
安装依赖:
bash pnpm install
-
构建项目:
bash pnpm run build
配置环境变量
在 .env
文件中配置以下环境变量:
OPENAI_API_KEY=your-hyperbolic-api-key
OPENAI_API_BASE=https://api.hyperbolic.xyz/v1
OPENAI_MODEL=meta-llama/Meta-Llama-3.1-405B
启动服务器
pnpm start
Docker 使用
-
构建 Docker 镜像:
bash docker build -t mcp-openai-complete .
-
运行容器:
bash docker run -it --rm \ -e OPENAI_API_KEY="your-api-key" \ -e OPENAI_MODEL="gpt-3.5-turbo-instruct" \ mcp-openai-complete
或使用 .env
文件:
bash
docker run -it --rm \
--env-file .env \
mcp-openai-complete
调试方式
在开发模式下运行,支持自动重载:
npm run dev