Wikipedia Summarizer MCP Server

Wikipedia Summarizer MCP Server

site icon
2025.04.06 0
Python维基百科文章总结Ollama LLM 模型Streamlit 界面内容生成
Streamlit-as-an-MCP-Host 是一个基于 Model Client Protocol (MCP) 的服务,主要用于获取并总结维基百科文章。它利用 Ollama LLM 模型生成文章摘要,并提供命令行客户端和 Streamlit 网页界面两种交互方式。
View on GitHub

Overview

基本能力

产品定位

Streamlit-as-an-MCP-Host 是一个基于 MCP 协议的服务,主要用于获取并总结维基百科文章。

核心功能

  1. 维基百科文章获取与总结:通过 Ollama LLM 模型生成维基百科文章的摘要。
  2. 多平台交互:提供命令行客户端和 Streamlit 网页界面两种交互方式。
  3. 工具集成:集成 Ollama 服务器,支持自定义模型。

适用场景

  1. 快速获取文章摘要:适用于需要快速了解维基百科文章内容的场景。
  2. 教育与研究:帮助学生或研究人员快速获取文章的关键信息。
  3. 自动化工具集成:可以集成到其他自动化工具中,用于内容生成或信息提取。

工具列表

  1. Ollama Server:提供维基百科文章总结功能的 MCP 服务器。
  2. Command-line Client:命令行客户端,用于连接 MCP 服务器并请求文章摘要。
  3. Streamlit Interface:网页界面,提供用户友好的交互方式。

常见问题解答

  1. 如何更改模型:在 ollama_server.py 中更新模型名称。
  2. 服务器无法启动:确保 Ollama 已安装并运行,且模型已正确加载。
  3. 网络问题:确保有互联网连接以获取维基百科文章。

使用教程

使用依赖

  1. Python 3.8+:确保已安装 Python 3.8 或更高版本。
  2. Ollama:安装并运行 Ollama,加载 deepseek-r1:1.5b 模型。

安装教程

  1. 克隆仓库: bash git clone <repository-url>
  2. 安装依赖: bash uv pip install -r requirements.txt

运行服务器

启动 MCP 服务器:

uv run -- ollama_server.py

服务器将在 http://localhost:8000/sse 可用。

使用命令行客户端

uv run -- updated_client.py http://localhost:8000/sse https://en.wikipedia.org/wiki/Python_(programming_language)

使用 Streamlit 界面

启动 Streamlit 应用:

uv run -- streamlit run streamlit_new.py

然后在浏览器中打开 Streamlit 提供的 URL(通常是 http://localhost:8501),输入 MCP 服务器 URL 和维基百科文章 URL,点击 "Fetch and Summarize Article"。

许可证

该项目遵循 MIT 开源许可条款。