
Higress AI-Search MCP Server

2025.05.08
0
PythonAI搜索实时搜索知识库查询搜索工具开发效率
Higress AI-Search MCP Server 是一个基于模型上下文协议(MCP)的服务,旨在通过集成多种搜索引擎(如Google、Bing、Quark)和学术资源(如Arxiv)来增强AI模型的响应能力。该服务通过Higress的ai-search功能,提供实时搜索结果,适用于需要结合实时网络信息和内部知识库的场景。
View on GitHub
Overview
基本能力
产品定位
Higress AI-Search MCP Server 是一个增强AI模型响应能力的工具,通过集成多种搜索引擎和学术资源,提供实时搜索结果和内部知识库查询功能。
核心功能
- 互联网搜索:支持Google、Bing、Quark等搜索引擎,用于获取一般网络信息。
- 学术搜索:支持Arxiv,用于获取科学论文和研究资料。
- 内部知识搜索:支持查询内部知识库,如员工手册、公司政策等。
适用场景
- 需要结合实时网络信息增强AI模型响应的场景。
- 需要查询学术论文或研究资料的场景。
- 需要查询内部知识库的场景。
工具列表
- uv:用于包安装。
- Higress ai-search插件:用于集成搜索引擎功能。
- Higress ai-proxy插件:用于代理AI模型请求。
常见问题解答
- 如何配置Higress URL?:通过环境变量
HIGRESS_URL
设置,默认为http://localhost:8080/v1/chat/completions
。 - 如何指定使用的LLM模型?:通过环境变量
MODEL
设置,如qwen-turbo
。 - 如何配置内部知识库?:通过环境变量
INTERNAL_KNOWLEDGE_BASES
设置,如Employee handbook, company policies, internal process documents
。
使用教程
使用依赖
- 安装
uv
工具:bash pip install uv
- 配置Higress的
ai-search
和ai-proxy
插件。
安装教程
选项1:使用uvx(自动从PyPI安装)
{
"mcpServers": {
"higress-ai-search-mcp-server": {
"command": "uvx",
"args": [
"higress-ai-search-mcp-server"
],
"env": {
"HIGRESS_URL": "http://localhost:8080/v1/chat/completions",
"MODEL": "qwen-turbo",
"INTERNAL_KNOWLEDGE_BASES": "Employee handbook, company policies, internal process documents"
}
}
}
}
选项2:使用uv(本地开发)
{
"mcpServers": {
"higress-ai-search-mcp-server": {
"command": "uv",
"args": [
"--directory",
"path/to/src/higress-ai-search-mcp-server",
"run",
"higress-ai-search-mcp-server"
],
"env": {
"HIGRESS_URL": "http://localhost:8080/v1/chat/completions",
"MODEL": "qwen-turbo",
"INTERNAL_KNOWLEDGE_BASES": "Employee handbook, company policies, internal process documents"
}
}
}
}
调试方式
- 确保
uv
工具已正确安装。 - 检查环境变量
HIGRESS_URL
、MODEL
和INTERNAL_KNOWLEDGE_BASES
是否已正确设置。 - 运行服务后,通过日志检查是否有错误信息。