
Fact Checker MCP Server

2025.04.12
0
Python事实核查知识验证内容生成
Fact Checker MCP Server 是一个基于模型上下文协议(MCP)的服务,用于验证简单的自然语言声明,通过与知识源(如 Wikidata)进行比对来确认声明的准确性。该服务能够接收自然语言声明,验证其准确性,并返回符合MCP规范的响应,包括声明、正确答案和置信度分数。此外,它还包含一个与Ollama LLM集成的MCP客户端。
View on GitHub
Overview
基本能力
产品定位
Fact Checker MCP Server 主要用于验证自然语言声明的准确性,特别适用于需要确保信息正确性的场景。
核心功能
- 接收自然语言声明
- 验证声明的准确性
- 返回MCP规范的响应(声明、正确答案、置信度分数)
- 集成Ollama LLM的MCP客户端
适用场景
- 教育领域:验证学生提交的答案
- 内容审核:确保发布的信息准确
- 知识管理:维护知识库的准确性
工具列表
mcp_client.py
:与Ollama LLM集成的客户端,用于验证声明并增强LLM的知识test_client.py
:测试客户端,用于验证服务器的功能test_unit.py
:单元测试脚本,用于验证服务器的功能
常见问题解答
- 目前仅支持验证首都城市声明,未来将支持更多声明类型
- 扩展服务器功能需添加新的正则表达式模式和验证函数
使用教程
使用依赖
安装依赖:
pip install -r requirements.txt
安装教程
- 克隆仓库
- 安装依赖
- 运行服务器:
python app.py
调试方式
- 基本测试:
python test_client.py "The capital of France is Paris"
- 默认测试套件:
python test_client.py
- 综合测试套件:
python test_client.py --test-suite
- 单元测试:
python -m unittest test_unit.py
服务器API
发送POST请求到/fact-check
端点:
curl -X POST http://localhost:5000/fact-check \
-H "Content-Type: application/json" \
-d '{"claim": "The capital of France is London"}'
MCP客户端与Ollama集成
- 确保Ollama已安装并运行:
ollama serve
- 运行演示脚本:
bash run_demo.sh
- 或直接运行客户端:
python mcp_client.py --model llama3