
Wikipedia Summarizer MCP Server

2025.04.06
0
Python维基百科文章总结Ollama LLM 模型Streamlit 界面内容生成
Streamlit-as-an-MCP-Host 是一个基于 Model Client Protocol (MCP) 的服务,主要用于获取并总结维基百科文章。它利用 Ollama LLM 模型生成文章摘要,并提供命令行客户端和 Streamlit 网页界面两种交互方式。
View on GitHub
Overview
基本能力
产品定位
Streamlit-as-an-MCP-Host 是一个基于 MCP 协议的服务,主要用于获取并总结维基百科文章。
核心功能
- 维基百科文章获取与总结:通过 Ollama LLM 模型生成维基百科文章的摘要。
- 多平台交互:提供命令行客户端和 Streamlit 网页界面两种交互方式。
- 工具集成:集成 Ollama 服务器,支持自定义模型。
适用场景
- 快速获取文章摘要:适用于需要快速了解维基百科文章内容的场景。
- 教育与研究:帮助学生或研究人员快速获取文章的关键信息。
- 自动化工具集成:可以集成到其他自动化工具中,用于内容生成或信息提取。
工具列表
- Ollama Server:提供维基百科文章总结功能的 MCP 服务器。
- Command-line Client:命令行客户端,用于连接 MCP 服务器并请求文章摘要。
- Streamlit Interface:网页界面,提供用户友好的交互方式。
常见问题解答
- 如何更改模型:在
ollama_server.py
中更新模型名称。 - 服务器无法启动:确保 Ollama 已安装并运行,且模型已正确加载。
- 网络问题:确保有互联网连接以获取维基百科文章。
使用教程
使用依赖
- Python 3.8+:确保已安装 Python 3.8 或更高版本。
- Ollama:安装并运行 Ollama,加载
deepseek-r1:1.5b
模型。
安装教程
- 克隆仓库:
bash git clone <repository-url>
- 安装依赖:
bash uv pip install -r requirements.txt
运行服务器
启动 MCP 服务器:
uv run -- ollama_server.py
服务器将在 http://localhost:8000/sse
可用。
使用命令行客户端
uv run -- updated_client.py http://localhost:8000/sse https://en.wikipedia.org/wiki/Python_(programming_language)
使用 Streamlit 界面
启动 Streamlit 应用:
uv run -- streamlit run streamlit_new.py
然后在浏览器中打开 Streamlit 提供的 URL(通常是 http://localhost:8501
),输入 MCP 服务器 URL 和维基百科文章 URL,点击 "Fetch and Summarize Article"。