
MCP Code Expert System

2025.03.11
2
Python代码审查AI集成知识图谱开发效率
MCP Code Expert System 是一个基于Python的代码审查系统,使用Model Context Protocol (MCP)。它通过模拟专家角色(如Martin Fowler和Robert C. Martin)提供代码审查能力。该系统集成了Ollama进行AI驱动的代码审查,并支持知识图谱存储代码、审查和关系。
View on GitHub
Overview
基本能力
产品定位
MCP Code Expert System 是一个代码审查工具,旨在通过模拟专家角色提供高质量的代码审查和建议。
核心功能
- 基于Martin Fowler的重构原则进行代码审查
- 基于Robert C. Martin的Clean Code原则进行代码审查
- 知识图谱存储代码、审查和关系
- 与Ollama集成进行AI驱动的代码审查
- 支持服务器端事件(SSE)以便于Web集成
适用场景
- 开发者在编写代码时需要即时反馈和建议
- 团队希望提高代码质量和一致性
- 需要存储和检索代码审查历史
工具列表
ask_martin
: 请求Martin Fowler审查代码并提出重构建议ask_bob
: 请求Robert C. Martin(Uncle Bob)基于Clean Code原则审查代码read_graph
: 读取整个知识图谱search_nodes
: 在知识图谱中搜索节点open_nodes
: 通过名称打开特定节点
常见问题解答
- 如何安装Ollama? 根据操作系统不同,安装方法不同。macOS用户可以直接下载,Linux用户可以通过脚本安装,Windows用户需要通过WSL2安装。
- 如何启动服务器? 可以通过标准模式或HTTP/SSE模式启动服务器,具体命令见安装教程。
使用教程
使用依赖
- Python 3.10+ 确保系统已安装Python 3.10或更高版本。
- Ollama
- 安装Ollama:
- macOS: 从ollama.com下载
- Linux:
curl -fsSL https://ollama.com/install.sh | sh
- Windows: 通过WSL2使用Linux指令安装
- 拉取推荐模型:
bash ollama pull llama3:8b
- 启动Ollama服务器:
bash ollama serve
安装教程
- 运行安装脚本:
bash chmod +x setup.sh ./setup.sh
- 配置环境变量:
编辑
.env
文件(如果不存在,从.env.example
创建): ``` # Knowledge Graph Settings KNOWLEDGE_GRAPH_PATH=data/knowledge_graph.json
# Ollama Configuration (local AI models) OLLAMA_HOST=http://localhost:11434 OLLAMA_MODEL=llama3:8b ```
调试方式
- 标准模式(用于Cursor集成)
bash source .venv/bin/activate python server.py
- HTTP/SSE模式(用于Web集成)
bash source .venv/bin/activate python server.py --transport sse
服务器将在http://localhost:8000/sse
启动。 自定义端口:bash python server.py --transport sse --port 9000
- 在Cursor IDE中安装
bash source .venv/bin/activate mcp install server.py --name "Code Expert System"