
Gemini AI MCP Server

2025.04.23
0
PythonAI 模型集成内容生成内容生成
mcp-gemini-server 是一个集成 Google Gemini AI 模型与 Claude CLI 的工具,通过 MCP 协议实现无缝对接。它支持多种 Gemini AI 模型,提供结构化的 JSON 响应格式,并具备灵活的配置选项和强大的错误处理能力。
View on GitHub
Overview
基本能力
产品定位
mcp-gemini-server 是一个 AI 模型集成工具,主要用于通过 MCP 协议将 Google Gemini AI 模型与 Claude CLI 结合使用,提供 AI 内容生成能力。
核心功能
- MCP 协议集成:通过标准化的 MCP 协议与 Claude CLI 无缝集成
- 多模型支持:兼容多种 Gemini AI 模型,包括 2.5 Pro 和 1.5 系列
- JSON 响应格式:提供结构化的 JSON 响应,便于解析和集成
- 错误处理:强大的错误处理机制,提供信息丰富的错误消息
- 命令行参数:灵活的命令行界面,支持可选参数
- 环境配置:通过环境变量简单配置 API 密钥
适用场景
- 在 Claude CLI 中集成 Gemini AI 模型进行内容生成
- 需要快速测试和调用 Gemini AI 模型的开发场景
- 需要结构化 JSON 响应的 AI 应用集成
工具列表
- gemini_server.py:核心服务器实现
- gemini.sh:Shell 包装脚本
- mcp.json:MCP 协议定义文件
常见问题解答
无明确常见问题解答部分
使用教程
使用依赖
-
安装 Google Generative AI Python 包:
pip install google-generativeai
-
设置 Google API 密钥环境变量:
export GOOGLE_API_KEY=your_api_key
-
确保 shell 脚本可执行:
chmod +x gemini.sh
安装教程
-
将目录添加到 MCP 搜索路径以配置 Claude CLI 使用此 MCP 服务器
-
通过 Claude CLI 使用 Gemini 命令:
claude mcp gemini --prompt "Your prompt here"
-
可选指定不同的 Gemini 模型:
claude mcp gemini --prompt "Your prompt here" --model "gemini-1.5-pro"
调试方式
可以直接测试服务器而无需 Claude CLI:
./gemini.sh gemini --prompt "Explain quantum physics simply"