
File Structure

2025.04.20
0
PythonLLM连接服务轻量级服务器模型管理开发效率内容生成
OtterBridge 是一个轻量级、灵活的服务器,用于将应用程序连接到各种大型语言模型(LLM)提供商。它遵循简单性和可组合性的原则,为LLM提供了一个干净的接口,同时保持对不同用例的适应性。目前支持Ollama,并计划扩展到支持其他提供商如ChatGPT和Claude。
View on GitHub
Overview
基本能力
产品定位
OtterBridge 是一个轻量级的 MCP 服务器,旨在为应用程序提供与多种大型语言模型(LLM)提供商的连接服务。
核心功能
- 提供商无关性:支持多种LLM提供商(当前支持Ollama,未来计划支持ChatGPT和Claude)。
- 简单、可组合的设计:遵循LLM代理架构的最佳实践。
- 轻量级服务器:使用FastMCP构建,实现可靠、高效的服务器。
- 模型管理:轻松访问模型信息和功能。
适用场景
- 需要连接多种LLM提供商的应用程序开发。
- 需要轻量级、高效LLM接口的项目。
- 需要灵活管理不同LLM模型的项目。
工具列表
- chat:向LLM发送消息并获取AI生成的响应。
- list_models:检索可用语言模型的信息。
常见问题解答
- 如何配置OtterBridge?:通过环境变量配置,如
OLLAMA_BASE_URL
和DEFAULT_MODEL
。 - 如何启动服务器?:可以手动启动或通过兼容的MCP客户端自动启动。
使用教程
使用依赖
安装教程
- 克隆仓库:
git clone https://github.com/yourusername/otterbridge.git
cd otterbridge
- 使用uv安装依赖:
uv add -r requirements.txt
- 创建并配置
.env
文件:
cp .env.example .env
调试方式
- 手动启动服务器:
uv run server.py
- 使用MCP客户端自动启动服务器。