
Mcp Waifu Chat

2025.04.18
1
Python对话式 AI娱乐交互内容生成娱乐功能
MCP Waifu Chat Server 是一个基于 MCP(Model Context Protocol)的对话式 AI "waifu" 角色服务器。它使用 Python 的 `mcp` 库处理协议细节,并通过 `FastMCP` 实现快速服务器设置。该服务器具备用户管理、对话历史存储、基础聊天功能(使用 Google Gemini API)等核心功能,采用模块化设计,易于扩展。
View on GitHub
Overview
基本能力
产品定位
MCP Waifu Chat Server 是一个基于 MCP(Model Context Protocol)的对话式 AI "waifu" 角色服务器,旨在提供用户与 AI 角色的交互体验。
核心功能
- 用户管理:支持创建、检查存在、删除用户以及统计用户数量。
- 对话历史存储:支持获取、设置和重置对话历史。
- 基础聊天功能:使用 Google Gemini API 实现对话交互。
- 模块化设计:易于扩展和维护。
- 配置管理:通过环境变量和 API 密钥文件进行配置。
- 持久化存储:使用 SQLite 数据库存储数据。
- 单元测试:提供全面的单元测试支持。
适用场景
- 个人娱乐:与 AI 角色进行对话互动。
- 开发者测试:用于测试 MCP 协议和 AI 交互功能。
- 教育演示:展示对话式 AI 的实现方式。
工具列表
- 用户管理工具:
create_user
,check_user
,delete_user
,user_count
。 - 对话管理工具:
reset_dialog
。 - 聊天工具:
chat
。 - 资源:
/v1/user/dialog/json/{user_id}
,/v1/user/dialog/str/{user_id}
。
常见问题解答
- API 密钥配置:确保
~/.api-gemini
文件存在并包含有效的 Google Gemini API 密钥。 - 数据库配置:通过
.env
文件或环境变量配置数据库路径和其他设置。 - 生产部署建议:使用 Gunicorn 作为生产服务器,考虑使用 PostgreSQL 或 MySQL 替代 SQLite。
使用教程
使用依赖
- Python 3.10+:确保系统已安装 Python 3.10 或更高版本。
- uv:安装 uv 工具。
bash curl -LsSf https://astral.sh/uv/install.sh | sh
或powershell powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
- Google Gemini API Key:从 Google AI Studio 获取 API 密钥。
安装教程
- 克隆仓库:
bash git clone <repository_url> cd mcp-waifu-chat
- 创建并激活虚拟环境:
bash uv venv source .venv/bin/activate # Linux/macOS .\.venv\Scripts\activate # Windows
- 安装依赖:
bash uv sync --all-extras --dev
调试方式
- 运行服务器:
bash uv run mcp-waifu-chat
- 运行测试:
bash uv run pytest
- 检查服务器状态:
bash curl http://localhost:5000/v1/server/status