
OpenAI Integration with MCP

2025.04.22
0
Python知识库集成AI 模型交互开发效率
MCP-SERVER-KB 是一个基于 Model Context Protocol (MCP) 的服务,用于将 OpenAI 的 API 与知识库工具集成。它允许 OpenAI 动态访问和使用 MCP 服务器提供的工具,以回答用户查询。该服务通过标准化接口连接 AI 模型和后端系统,提供抽象、安全和灵活的交互方式。
View on GitHub
Overview
基本能力
产品定位
MCP-SERVER-KB 是一个用于集成 OpenAI API 与知识库工具的服务,旨在通过 MCP 协议标准化 AI 模型与后端系统的交互。
核心功能
- 知识库工具暴露:通过 MCP 服务器暴露
get_knowledge_base
工具,从 JSON 文件中检索问答对。 - OpenAI 集成:允许 OpenAI 动态选择和使用 MCP 工具来回答用户查询。
- 标准化接口:提供一致的接口,抽象后端系统的复杂性。
- 安全控制:精确控制暴露给 AI 模型的工具和数据。
适用场景
- 公司政策查询:如查询休假政策、远程工作政策等。
- IT 支持:如软件许可证申请流程。
- 财务流程:如提交费用报告的步骤。
- 安全事件报告:如报告安全事件的流程。
工具列表
get_knowledge_base
:从 JSON 文件中检索问答对,用于回答用户查询。
常见问题解答
- 如何运行服务?
- 使用 Docker 构建并运行 MCP 服务器。
- 设置 OpenAI API 密钥并运行客户端。
使用教程
使用依赖
- 确保已安装 Docker 和 Python。
- 设置 OpenAI API 密钥在
.env
文件中。
安装教程
- 构建 Docker 镜像:
bash docker build -t ashujss11/mcp-server .
- 运行 Docker 容器:
bash docker run -p 8050:8050 -d --name mcp-server ashujss11/mcp-server
- 运行客户端:
bash python client.py
调试方式
- 检查 Docker 容器是否正常运行:
bash docker ps
- 查看容器日志:
bash docker logs mcp-server
- 检查客户端输出:
bash python client.py