Gemini AI MCP Server

Gemini AI MCP Server

site icon
2025.04.23 0
PythonAI 模型集成内容生成内容生成
mcp-gemini-server 是一个集成 Google Gemini AI 模型与 Claude CLI 的工具,通过 MCP 协议实现无缝对接。它支持多种 Gemini AI 模型,提供结构化的 JSON 响应格式,并具备灵活的配置选项和强大的错误处理能力。
View on GitHub

Overview

基本能力

产品定位

mcp-gemini-server 是一个 AI 模型集成工具,主要用于通过 MCP 协议将 Google Gemini AI 模型与 Claude CLI 结合使用,提供 AI 内容生成能力。

核心功能

  • MCP 协议集成:通过标准化的 MCP 协议与 Claude CLI 无缝集成
  • 多模型支持:兼容多种 Gemini AI 模型,包括 2.5 Pro 和 1.5 系列
  • JSON 响应格式:提供结构化的 JSON 响应,便于解析和集成
  • 错误处理:强大的错误处理机制,提供信息丰富的错误消息
  • 命令行参数:灵活的命令行界面,支持可选参数
  • 环境配置:通过环境变量简单配置 API 密钥

适用场景

  • 在 Claude CLI 中集成 Gemini AI 模型进行内容生成
  • 需要快速测试和调用 Gemini AI 模型的开发场景
  • 需要结构化 JSON 响应的 AI 应用集成

工具列表

  • gemini_server.py:核心服务器实现
  • gemini.sh:Shell 包装脚本
  • mcp.json:MCP 协议定义文件

常见问题解答

无明确常见问题解答部分

使用教程

使用依赖

  1. 安装 Google Generative AI Python 包: pip install google-generativeai

  2. 设置 Google API 密钥环境变量: export GOOGLE_API_KEY=your_api_key

  3. 确保 shell 脚本可执行: chmod +x gemini.sh

安装教程

  1. 将目录添加到 MCP 搜索路径以配置 Claude CLI 使用此 MCP 服务器

  2. 通过 Claude CLI 使用 Gemini 命令: claude mcp gemini --prompt "Your prompt here"

  3. 可选指定不同的 Gemini 模型: claude mcp gemini --prompt "Your prompt here" --model "gemini-1.5-pro"

调试方式

可以直接测试服务器而无需 Claude CLI:

./gemini.sh gemini --prompt "Explain quantum physics simply"

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。