
MCP (Model Context Protocol) 서버

2025.03.17
0
PythonLLM管理API接口对话管理开发效率内容生成
MCP (Model Context Protocol) 서버는 다양한 LLM(Large Language Model)을 통합 관리하고 표준화된 인터페이스를 제공하는 서비스입니다. 이 프로젝트는 DeepSeek와 Llama 모델을 통합하여 모델 간 전환이 용이하고, 컨텍스트 관리가 가능한 API를 제공합니다.
View on GitHub
Overview
基本能力
产品定位
MCP 서버는 다양한 LLM(Large Language Model)을 통합 관리하고 표준화된 인터페이스를 제공하는 서비스입니다. DeepSeek와 Llama 모델을 통합하여 모델 간 전환이 용이하고, 컨텍스트 관리가 가능한 API를 제공합니다.
核心功能
- 다양한 LLM 모델(DeepSeek, Llama) 통합 관리
- 모델 간 쉬운 전환 및 라우팅
- 대화 컨텍스트 관리
- 표준화된 API 인터페이스
- 다양한 스토리지 백엔드 지원(메모리, Redis, SQLite)
适用场景
- 다양한 LLM 모델을 통합하여 사용하는 애플리케이션 개발
- 대화 컨텍스트 관리가 필요한 챗봇 서비스
- 모델 간 전환이 필요한 AI 서비스
工具列表
- 채팅 API: 대화 컨텍스트 관리 및 모델 응답 생성
- 모델 목록 API: 사용 가능한 모델 목록 조회
- 세션 삭제 API: 세션 데이터 삭제
常见问题解答
- 모델 추가 방법:
app/models
디렉토리에 새 모델 클래스 파일을 생성하고BaseModel
클래스를 상속받아 구현합니다. - 기여 방법: 저장소를 포크하고 기능 브랜치를 생성하여 변경사항을 커밋한 후 Pull Request를 생성합니다.
使用教程
使用依赖
- Python 3.8 이상
- CUDA 지원 GPU (권장, CPU에서도 실행 가능)
- Docker & Docker Compose (선택 사항)
安装教程
手动安装
- 克隆存储库:
bash git clone https://github.com/yourusername/mcp-server.git cd mcp-server
- 运行设置脚本:
bash python setup.py
(下载模型):bash python setup.py --download-models
(下载特定模型):bash python setup.py --download-models --model deepseek
- 启动服务器:
bash source venv/bin/activate # Windows: venv\Scripts\activate uvicorn app.main:app --reload
使用Docker安装
- 克隆存储库:
bash git clone https://github.com/yourusername/mcp-server.git cd mcp-server
- 使用Docker Compose启动:
bash docker-compose up -d
调试方式
- API测试: 使用
POST /api/chat
接口测试聊天功能 - 模型列表: 使用
GET /api/models
接口获取可用模型列表 - 会话管理: 使用
DELETE /api/sessions/{session_id}
接口删除会话
许可证
None