
Gemini AI MCP Server

2025.04.23
0
PythonAI 模型集成命令行工具开发效率
Gemini AI MCP Server 是一个集成 Google 的 Gemini AI 模型与 Claude CLI 的工具,通过 MCP 协议实现无缝对接。它支持多种 Gemini AI 模型,提供结构化的 JSON 响应格式,并具备强大的错误处理能力。适用于需要通过命令行接口快速调用 AI 模型的开发场景。
View on GitHub
Overview
基本能力
产品定位
Gemini AI MCP Server 是一个集成 Google 的 Gemini AI 模型与 Claude CLI 的工具,通过 MCP 协议实现无缝对接。
核心功能
- MCP 协议集成:通过标准化的 MCP 协议与 Claude CLI 无缝集成
- 多模型支持:兼容多种 Gemini AI 模型,包括 2.5 Pro 和 1.5 系列
- JSON 响应格式:提供结构化的 JSON 响应,便于解析和集成
- 错误处理:强大的错误处理能力,提供信息丰富的错误消息
- 命令行参数:灵活的命令行接口,支持可选参数
- 环境配置:通过环境变量简单配置 API 密钥
适用场景
- 需要通过命令行接口快速调用 AI 模型的开发场景
- 需要与 Claude CLI 集成的 AI 模型调用场景
- 需要多模型支持的 AI 开发场景
工具列表
- gemini.sh:Shell 包装脚本,用于直接调用 Gemini AI 模型
- gemini_server.py:核心服务器实现,处理 MCP 协议和 AI 模型调用
- mcp.json:MCP 协议定义文件,定义可用命令和参数
常见问题解答
- 如何设置 API 密钥?通过环境变量
GOOGLE_API_KEY
设置 - 如何指定不同的 Gemini 模型?使用
--model
参数指定模型名称 - 如何测试服务器?直接运行
./gemini.sh
脚本进行测试
使用教程
使用依赖
-
安装 Google Generative AI Python 包:
pip install google-generativeai
-
设置 Google API 密钥环境变量:
export GOOGLE_API_KEY=your_api_key
-
确保 shell 脚本可执行:
chmod +x gemini.sh
安装教程
-
将目录添加到 MCP 搜索路径中,配置 Claude CLI 使用此 MCP 服务器
-
通过 Claude CLI 使用 Gemini 命令:
claude mcp gemini --prompt "Your prompt here"
-
可选指定不同的 Gemini 模型:
claude mcp gemini --prompt "Your prompt here" --model "gemini-1.5-pro"
调试方式
-
直接测试服务器(无需 Claude CLI):
./gemini.sh gemini --prompt "Explain quantum physics simply"
-
检查日志文件
changes.log
查看实现变更记录