Vertex AI MCP Server

Vertex AI MCP Server

site icon
2025.04.22 2
TypeScript编码辅助AI 查询回答文件系统操作开发效率内容生成
Vertex AI MCP Server 是一个基于 Google Cloud Vertex AI Gemini 模型的 MCP(Model Context Protocol)服务器,专注于提供编码辅助和通用查询回答功能。它通过一系列工具支持与 Vertex AI 模型的交互,包括基于网络搜索的查询回答、直接知识回答、技术文档解释、代码片段生成等功能。此外,它还提供了文件系统操作和结合 AI 的文件系统操作工具。
View on GitHub

Overview

基本能力

产品定位

Vertex AI MCP Server 是一个专注于编码辅助和通用查询回答的 MCP 服务器,利用 Google Cloud Vertex AI Gemini 模型提供强大的 AI 功能。

核心功能

  • 提供对 Vertex AI Gemini 模型的访问,支持多种查询和生成工具。
  • 支持基于网络搜索的查询回答 (answer_query_websearch) 和直接知识回答 (answer_query_direct)。
  • 可配置的模型 ID、温度、流式行为、最大输出令牌数和重试设置。
  • 默认使用流式 API 以提高响应速度。
  • 包含基本的重试逻辑以处理瞬态 API 错误。
  • 最小化的安全过滤器 (BLOCK_NONE) 以减少潜在阻塞(需谨慎使用)。

适用场景

  • 编码辅助:生成代码片段、解释技术主题、生成项目指南。
  • 通用查询回答:回答自然语言问题,支持基于网络搜索和直接知识回答。
  • 文件系统操作:读取、写入、编辑文件,创建目录,搜索文件系统等。
  • 结合 AI 的文件系统操作:生成内容并直接保存到文件系统。

工具列表

查询与生成(AI 相关)

  • answer_query_websearch: 使用网络搜索结果增强的 Vertex AI 模型回答自然语言查询。
  • answer_query_direct: 仅使用 Vertex AI 模型的内部知识回答自然语言查询。
  • explain_topic_with_docs: 通过合成官方文档信息提供对特定软件主题的详细解释。
  • get_doc_snippets: 搜索官方文档提供精确的代码片段或简洁答案。
  • generate_project_guidelines: 基于指定技术列表生成结构化的项目指南文档(Markdown)。

文件系统操作

  • read_file_content: 读取单个文件的完整内容。
  • read_multiple_files_content: 同时读取多个文件的内容。
  • write_file_content: 创建新文件或完全覆盖现有文件。
  • edit_file_content: 对文本文件进行基于行的编辑,返回差异预览或应用更改。
  • create_directory: 创建新目录(包括嵌套目录)。
  • list_directory_contents: 列出指定路径下的文件和目录(非递归)。
  • get_directory_tree: 获取文件和目录的递归树形视图(JSON 格式)。
  • move_file_or_directory: 移动或重命名文件和目录。
  • search_filesystem: 递归搜索匹配名称模式的文件/目录,支持排除项。
  • get_filesystem_info: 检索文件或目录的详细元数据(大小、日期、类型、权限)。

结合 AI 的文件系统操作

  • save_generate_project_guidelines: 生成项目指南并保存到指定文件路径。
  • save_doc_snippet: 从文档中查找代码片段并保存到指定文件路径。
  • save_topic_explanation: 生成基于文档的主题详细解释并保存到指定文件路径。
  • save_answer_query_direct: 使用内部知识回答查询并保存答案到指定文件路径。
  • save_answer_query_websearch: 使用网络搜索结果回答查询并保存答案到指定文件路径。

常见问题解答

  • 如何配置环境变量? 创建 .env 文件并设置必要的环境变量,如 GOOGLE_CLOUD_PROJECT
  • 如何启用流式 API? 设置 VERTEX_AI_USE_STREAMING 环境变量为 true
  • 如何调整模型温度? 通过 VERTEX_AI_TEMPERATURE 环境变量调整。

使用教程

使用依赖

  • Node.js (v18+)
  • Bun (npm install -g bun)
  • Google Cloud Project 并启用 Billing。
  • 在 GCP 项目中启用 Vertex AI API。
  • 配置 Google Cloud 认证(推荐使用 gcloud auth application-default login 或服务账户密钥)。

安装教程

  1. 克隆/放置项目:确保项目文件位于所需位置。
  2. 安装依赖bash bun install
  3. 配置环境
  4. 创建 .env 文件(复制 .env.example)。
  5. 设置必要的环境变量,确保 GOOGLE_CLOUD_PROJECT 已设置。
  6. 构建服务器bash bun run build

调试方式

  1. 配置 MCP 设置:在 Cline MCP 设置文件(如 .roo/mcp.json)中添加/更新配置。 json { "mcpServers": { "vertex-ai-mcp-server": { "command": "node", "args": [ "/full/path/to/your/vertex-ai-mcp-server/build/index.js" ], "env": { "GOOGLE_CLOUD_PROJECT": "YOUR_GCP_PROJECT_ID", "GOOGLE_CLOUD_LOCATION": "us-central1" }, "disabled": false, "alwaysAllow": [], "timeout": 3600 } } }
  2. 重启/重新加载 Cline:Cline 应检测配置更改并启动服务器。
  3. 使用工具:通过 Cline 使用工具。

开发

  • Watch 模式bun run watch
  • Lintingbun run lint
  • 格式化bun run format

许可证

该项目遵循 None 开源许可条款。