Open Source MCP CLient Library

Open Source MCP CLient Library

site icon
2025.05.06 0
Python浏览器自动化开发效率浏览器自动化开发效率
MCP-Use 是一个开源库,旨在连接任何大型语言模型(LLM)到 MCP 工具,并构建具有工具访问权限的自定义代理,而无需使用闭源或应用程序客户端。它让开发者能够轻松地将任何 LLM 连接到诸如网页浏览、文件操作等工具。
View on GitHub

Overview

基本能力

产品定位

MCP-Use 是一个开源库,用于连接大型语言模型(LLM)到 MCP 工具,构建自定义代理,支持多种工具访问。

核心功能

  • 易用性:仅需 6 行代码即可创建支持 MCP 的代理。
  • LLM 灵活性:支持任何支持工具调用的 LangChain 兼容 LLM(如 OpenAI、Anthropic、Groq、LLama 等)。
  • HTTP 支持:直接连接到运行在特定 HTTP 端口的 MCP 服务器。
  • 多服务器支持:在单个代理中同时使用多个 MCP 服务器。
  • 工具限制:限制潜在危险工具(如文件系统或网络访问)。

适用场景

  • 网页浏览(如使用 Playwright 进行 Google 搜索)。
  • 住宿搜索(如 Airbnb 房源查询)。
  • 3D 建模(如使用 Blender 创建 3D 模型)。
  • 多服务器协同任务(如结合网页浏览和文件操作)。

工具列表

  • Playwright:用于网页浏览和自动化。
  • Airbnb MCP Server:用于 Airbnb 房源搜索。
  • Blender MCP Server:用于 3D 建模和渲染。

常见问题解答

  • Q: 如何安装 MCP-Use? A: 使用 pip install mcp-use 或从源码安装。
  • Q: 需要哪些前置依赖? A: Python 3.11+、LangChain 及相应的模型库(如 OpenAI、Anthropic 等)。
  • Q: 如何配置多服务器? A: 通过配置文件指定多个 MCP 服务器的命令和参数。

使用教程

使用依赖

安装 Python 3.11+ 和 LangChain 提供程序包:

# For OpenAI
pip install langchain-openai

# For Anthropic
pip install langchain-anthropic

安装教程

通过 pip 安装:

pip install mcp-use

或从源码安装:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install -e .

调试方式

运行示例代码:

import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient

async def main():
    load_dotenv()
    config = {
      "mcpServers": {
        "playwright": {
          "command": "npx",
          "args": ["@playwright/mcp@latest"],
          "env": {
            "DISPLAY": ":1"
          }
        }
      }
    }
    client = MCPClient.from_dict(config)
    llm = ChatOpenAI(model="gpt-4o")
    agent = MCPAgent(llm=llm, client=client, max_steps=30)
    result = await agent.run("Find the best restaurant in San Francisco")
    print(f"\nResult: {result}")

if __name__ == "__main__":
    asyncio.run(main())

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。