
Open Source MCP CLient Library

2025.05.06
0
Python浏览器自动化开发效率浏览器自动化开发效率
MCP-Use 是一个开源库,旨在连接任何大型语言模型(LLM)到 MCP 工具,并构建具有工具访问权限的自定义代理,而无需使用闭源或应用程序客户端。它让开发者能够轻松地将任何 LLM 连接到诸如网页浏览、文件操作等工具。
View on GitHub
Overview
基本能力
产品定位
MCP-Use 是一个开源库,用于连接大型语言模型(LLM)到 MCP 工具,构建自定义代理,支持多种工具访问。
核心功能
- 易用性:仅需 6 行代码即可创建支持 MCP 的代理。
- LLM 灵活性:支持任何支持工具调用的 LangChain 兼容 LLM(如 OpenAI、Anthropic、Groq、LLama 等)。
- HTTP 支持:直接连接到运行在特定 HTTP 端口的 MCP 服务器。
- 多服务器支持:在单个代理中同时使用多个 MCP 服务器。
- 工具限制:限制潜在危险工具(如文件系统或网络访问)。
适用场景
- 网页浏览(如使用 Playwright 进行 Google 搜索)。
- 住宿搜索(如 Airbnb 房源查询)。
- 3D 建模(如使用 Blender 创建 3D 模型)。
- 多服务器协同任务(如结合网页浏览和文件操作)。
工具列表
- Playwright:用于网页浏览和自动化。
- Airbnb MCP Server:用于 Airbnb 房源搜索。
- Blender MCP Server:用于 3D 建模和渲染。
常见问题解答
- Q: 如何安装 MCP-Use?
A: 使用
pip install mcp-use
或从源码安装。 - Q: 需要哪些前置依赖? A: Python 3.11+、LangChain 及相应的模型库(如 OpenAI、Anthropic 等)。
- Q: 如何配置多服务器? A: 通过配置文件指定多个 MCP 服务器的命令和参数。
使用教程
使用依赖
安装 Python 3.11+ 和 LangChain 提供程序包:
# For OpenAI
pip install langchain-openai
# For Anthropic
pip install langchain-anthropic
安装教程
通过 pip 安装:
pip install mcp-use
或从源码安装:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install -e .
调试方式
运行示例代码:
import asyncio
import os
from dotenv import load_dotenv
from langchain_openai import ChatOpenAI
from mcp_use import MCPAgent, MCPClient
async def main():
load_dotenv()
config = {
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"],
"env": {
"DISPLAY": ":1"
}
}
}
}
client = MCPClient.from_dict(config)
llm = ChatOpenAI(model="gpt-4o")
agent = MCPAgent(llm=llm, client=client, max_steps=30)
result = await agent.run("Find the best restaurant in San Francisco")
print(f"\nResult: {result}")
if __name__ == "__main__":
asyncio.run(main())