Gemini AI MCP Server

Gemini AI MCP Server

site icon
2025.04.23 0
PythonAI 模型集成命令行工具开发效率
Gemini AI MCP Server 是一个集成 Google 的 Gemini AI 模型与 Claude CLI 的工具,通过 MCP 协议实现无缝对接。它支持多种 Gemini AI 模型,提供结构化的 JSON 响应格式,并具备强大的错误处理能力。适用于需要通过命令行接口快速调用 AI 模型的开发场景。
View on GitHub

Overview

基本能力

产品定位

Gemini AI MCP Server 是一个集成 Google 的 Gemini AI 模型与 Claude CLI 的工具,通过 MCP 协议实现无缝对接。

核心功能

  • MCP 协议集成:通过标准化的 MCP 协议与 Claude CLI 无缝集成
  • 多模型支持:兼容多种 Gemini AI 模型,包括 2.5 Pro 和 1.5 系列
  • JSON 响应格式:提供结构化的 JSON 响应,便于解析和集成
  • 错误处理:强大的错误处理能力,提供信息丰富的错误消息
  • 命令行参数:灵活的命令行接口,支持可选参数
  • 环境配置:通过环境变量简单配置 API 密钥

适用场景

  • 需要通过命令行接口快速调用 AI 模型的开发场景
  • 需要与 Claude CLI 集成的 AI 模型调用场景
  • 需要多模型支持的 AI 开发场景

工具列表

  • gemini.sh:Shell 包装脚本,用于直接调用 Gemini AI 模型
  • gemini_server.py:核心服务器实现,处理 MCP 协议和 AI 模型调用
  • mcp.json:MCP 协议定义文件,定义可用命令和参数

常见问题解答

  • 如何设置 API 密钥?通过环境变量 GOOGLE_API_KEY 设置
  • 如何指定不同的 Gemini 模型?使用 --model 参数指定模型名称
  • 如何测试服务器?直接运行 ./gemini.sh 脚本进行测试

使用教程

使用依赖

  1. 安装 Google Generative AI Python 包: pip install google-generativeai

  2. 设置 Google API 密钥环境变量: export GOOGLE_API_KEY=your_api_key

  3. 确保 shell 脚本可执行: chmod +x gemini.sh

安装教程

  1. 将目录添加到 MCP 搜索路径中,配置 Claude CLI 使用此 MCP 服务器

  2. 通过 Claude CLI 使用 Gemini 命令: claude mcp gemini --prompt "Your prompt here"

  3. 可选指定不同的 Gemini 模型: claude mcp gemini --prompt "Your prompt here" --model "gemini-1.5-pro"

调试方式

  1. 直接测试服务器(无需 Claude CLI): ./gemini.sh gemini --prompt "Explain quantum physics simply"

  2. 检查日志文件 changes.log 查看实现变更记录

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。