OpenAI Integration with MCP

OpenAI Integration with MCP

site icon
2025.04.22 0
Python知识库集成AI 模型交互开发效率
MCP-SERVER-KB 是一个基于 Model Context Protocol (MCP) 的服务,用于将 OpenAI 的 API 与知识库工具集成。它允许 OpenAI 动态访问和使用 MCP 服务器提供的工具,以回答用户查询。该服务通过标准化接口连接 AI 模型和后端系统,提供抽象、安全和灵活的交互方式。
View on GitHub

Overview

基本能力

产品定位

MCP-SERVER-KB 是一个用于集成 OpenAI API 与知识库工具的服务,旨在通过 MCP 协议标准化 AI 模型与后端系统的交互。

核心功能

  1. 知识库工具暴露:通过 MCP 服务器暴露 get_knowledge_base 工具,从 JSON 文件中检索问答对。
  2. OpenAI 集成:允许 OpenAI 动态选择和使用 MCP 工具来回答用户查询。
  3. 标准化接口:提供一致的接口,抽象后端系统的复杂性。
  4. 安全控制:精确控制暴露给 AI 模型的工具和数据。

适用场景

  1. 公司政策查询:如查询休假政策、远程工作政策等。
  2. IT 支持:如软件许可证申请流程。
  3. 财务流程:如提交费用报告的步骤。
  4. 安全事件报告:如报告安全事件的流程。

工具列表

  • get_knowledge_base:从 JSON 文件中检索问答对,用于回答用户查询。

常见问题解答

  1. 如何运行服务?
  2. 使用 Docker 构建并运行 MCP 服务器。
  3. 设置 OpenAI API 密钥并运行客户端。

使用教程

使用依赖

  1. 确保已安装 Docker 和 Python。
  2. 设置 OpenAI API 密钥在 .env 文件中。

安装教程

  1. 构建 Docker 镜像: bash docker build -t ashujss11/mcp-server .
  2. 运行 Docker 容器: bash docker run -p 8050:8050 -d --name mcp-server ashujss11/mcp-server
  3. 运行客户端: bash python client.py

调试方式

  1. 检查 Docker 容器是否正常运行: bash docker ps
  2. 查看容器日志: bash docker logs mcp-server
  3. 检查客户端输出: bash python client.py

许可证

该项目遵循 None 开源许可条款。