Building a Watsonx.ai Chatbot Server with MCP in Python

Building a Watsonx.ai Chatbot Server with MCP in Python

site icon
2025.04.20 0
Python聊天机器人医疗助手LLM 推理服务内容生成
watsonx-mcp-server 是一个基于 IBM Watsonx.ai 和 Model Context Protocol (MCP) 的聊天机器人服务器。它通过 MCP 标准化协议将 Watsonx.ai 的 LLM 推理能力暴露为可调用的工具,使得任何兼容 MCP 的客户端(如 Claude Desktop 或自定义 Python 客户端)都可以通过标准化的 'chat' 工具进行交互。该项目适用于构建内部帮助台机器人或公共聊天机器人 API,具有模块化、可重用性和快速迭代的特点。
View on GitHub

Overview

基本能力

产品定位

watsonx-mcp-server 是一个基于 IBM Watsonx.ai 和 MCP 的聊天机器人服务器,旨在通过标准化协议提供强大的 LLM 推理能力。

核心功能

  1. MCP 工具暴露:将 Watsonx.ai 的 LLM 推理能力暴露为 MCP 工具(如 chat 工具)。
  2. 资源管理:支持动态资源注入(如个性化问候)。
  3. 提示模板:提供可重用的提示模板(如医疗症状评估)。
  4. 开发工具:内置开发检查器和实时重载功能。

适用场景

  1. 内部帮助台机器人:为企业内部提供自动化支持。
  2. 公共聊天机器人 API:构建可扩展的公共聊天机器人服务。
  3. 医疗助手:通过症状评估提示模板提供医疗建议。

工具列表

  1. chat:调用 Watsonx.ai 生成聊天响应。
  2. greeting:生成个性化问候语。
  3. assess_symptoms:评估症状并生成医疗建议。

常见问题解答

  1. .env 未加载:确保 load_dotenv()os.getenv 之前调用。
  2. 连接被拒绝:确保服务器已运行(mcp devpython server.py)。
  3. 延迟问题:考虑使用流式端点或更小的模型。

使用教程

使用依赖

  1. Python 3.9+:推荐使用 3.11+ 以获得更好的性能和类型支持。
  2. pip:Python 包安装工具。
  3. 虚拟环境工具venvvirtualenv
  4. IBM Cloud Watsonx.ai 凭证:API 密钥、服务 URL 和项目 ID。

安装依赖命令:

python3 -m venv .venv
source .venv/bin/activate  # macOS/Linux
.venv\Scripts\activate.bat  # Windows

安装教程

  1. 创建项目目录并初始化虚拟环境。
  2. 安装依赖:
pip install --upgrade pip
pip install python-dotenv>=0.21.0 ibm-watsonx-ai==1.3.8 mcp[cli]>=1.6.0
  1. 配置 .env 文件:
WATSONX_APIKEY=your-ibm-watsonx-api-key
WATSONX_URL=https://api.your-region.watsonx.ai
PROJECT_ID=your-watsonx-project-id

调试方式

  1. 开发模式
mcp dev server.py
  1. 直接运行
python server.py
  1. 客户端测试
python client.py

标签信息

安装类型

stdio

产品定位

  1. 聊天机器人
  2. 医疗助手
  3. LLM 推理服务

归类

内容生成

许可证

该项目遵循 None 开源许可条款。