🔍 🤖 🌐 Ollama Chat with MCP

🔍 🤖 🌐 Ollama Chat with MCP

site icon
2025.04.06 2
Python本地语言模型实时网络搜索MCP集成开发效率内容生成
Ollama Chat with MCP 是一个展示如何将本地语言模型与实时网络搜索功能集成的强大示例。该项目通过模型上下文协议(MCP)扩展了本地语言模型的能力,结合了Ollama运行的本地模型和MCP服务器提供的网络搜索功能。主要组件包括MCP网络搜索服务器、终端客户端和基于Gradio的Web前端。
View on GitHub

Overview

基本能力

产品定位

Ollama Chat with MCP 是一个展示如何将本地语言模型与实时网络搜索功能集成的工具,旨在增强本地模型的实时信息获取能力。

核心功能

  • Web增强聊天:在对话中访问实时网络搜索结果
  • 本地模型执行:使用Ollama在本地硬件上运行模型
  • MCP集成:展示模型上下文协议的实际应用
  • 双界面:提供终端CLI或基于Web的GUI
  • 结构化搜索结果:优化网络搜索数据的格式化显示
  • 对话记忆:在整个聊天会话中保持上下文

适用场景

  • 需要结合本地模型和实时网络搜索的应用场景
  • 开发人员希望了解如何通过MCP扩展本地模型能力
  • 需要实时信息获取的聊天应用开发

工具列表

  • MCP Web Search Server:使用Serper.dev API提供网络搜索功能
  • Terminal Client:提供聊天和搜索交互的CLI界面
  • Web Frontend:基于Gradio的用户友好Web界面

常见问题解答

  • 需要Python 3.11+、Ollama和Serper.dev API密钥
  • 安装后可通过python chat_frontend.py启动Web界面
  • 通过python chat_client.py使用终端客户端

使用教程

使用依赖

  1. 安装Python 3.11+
  2. 安装Ollama并确保本地运行
  3. 获取Serper.dev API密钥(免费层可用)

安装教程

  1. 克隆仓库: bash git clone https://github.com/redbuilding/ollama-chat-with-mcp.git cd ollama-chat-with-mcp
  2. 安装依赖: bash pip install -r requirements.txt
  3. 在项目根目录创建.env文件并添加Serper.dev API密钥: SERPER_API_KEY=your_serper_api_key_here
  4. 确保Ollama已安装并拉取默认模型: bash ollama pull qwen2.5:14b

调试方式

  1. 启动Web界面: bash python chat_frontend.py 访问http://localhost:7860
  2. 使用终端客户端: bash python chat_client.py
  3. 搜索命令示例: #search for "financial market outlook April 2025"

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。