File Structure

File Structure

site icon
2025.04.20 0
PythonLLM连接服务轻量级服务器模型管理开发效率内容生成
OtterBridge 是一个轻量级、灵活的服务器,用于将应用程序连接到各种大型语言模型(LLM)提供商。它遵循简单性和可组合性的原则,为LLM提供了一个干净的接口,同时保持对不同用例的适应性。目前支持Ollama,并计划扩展到支持其他提供商如ChatGPT和Claude。
View on GitHub

Overview

基本能力

产品定位

OtterBridge 是一个轻量级的 MCP 服务器,旨在为应用程序提供与多种大型语言模型(LLM)提供商的连接服务。

核心功能

  • 提供商无关性:支持多种LLM提供商(当前支持Ollama,未来计划支持ChatGPT和Claude)。
  • 简单、可组合的设计:遵循LLM代理架构的最佳实践。
  • 轻量级服务器:使用FastMCP构建,实现可靠、高效的服务器。
  • 模型管理:轻松访问模型信息和功能。

适用场景

  • 需要连接多种LLM提供商的应用程序开发。
  • 需要轻量级、高效LLM接口的项目。
  • 需要灵活管理不同LLM模型的项目。

工具列表

  • chat:向LLM发送消息并获取AI生成的响应。
  • list_models:检索可用语言模型的信息。

常见问题解答

  • 如何配置OtterBridge?:通过环境变量配置,如OLLAMA_BASE_URLDEFAULT_MODEL
  • 如何启动服务器?:可以手动启动或通过兼容的MCP客户端自动启动。

使用教程

使用依赖

  1. 安装并运行Ollama在默认端口。
  2. 安装uv用于Python包管理。

安装教程

  1. 克隆仓库:
git clone https://github.com/yourusername/otterbridge.git
cd otterbridge
  1. 使用uv安装依赖:
uv add -r requirements.txt
  1. 创建并配置.env文件:
cp .env.example .env

调试方式

  1. 手动启动服务器:
uv run server.py
  1. 使用MCP客户端自动启动服务器。

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。