Unity MCP with Ollama Integration

Unity MCP with Ollama Integration

site icon
2025.03.19 3
PythonUnity 开发本地 LLM 集成编辑器自动化开发效率
Unity MCP with Ollama Integration 是一个 Unity 的 MCP(Model Context Protocol)包,它通过 Ollama 实现了 Unity 与本地大型语言模型(LLMs)之间的无缝通信。该包扩展了 justinpbarnett/unity-mcp 的功能,使开发者能够在不依赖基于云的 LLMs 的情况下,自动化工作流程、操作资产并通过程序控制 Unity 编辑器。
View on GitHub

Overview

基本能力

产品定位

Unity MCP with Ollama Integration 旨在为 Unity 开发者提供一个本地化的 LLM 集成解决方案,用于自动化 Unity 编辑器的工作流程和资产管理。

核心功能

  • 资产管理:通过程序创建、导入和操作 Unity 资产
  • 场景控制:管理场景、对象及其属性
  • 材质编辑:修改材质及其属性
  • 脚本集成:查看、创建和更新 Unity 脚本
  • 编辑器自动化:控制 Unity 编辑器功能,如撤销、重做、播放和构建

适用场景

  • 自动化 Unity 编辑器的工作流程
  • 通过自然语言指令操作 Unity 资产和场景
  • 本地化 LLM 集成,无需互联网连接或 API 密钥

工具列表

  • Ollama:用于运行本地 LLM 的框架
  • Python MCP Server:提供 Unity 与 LLM 之间的通信桥梁
  • Unity MCP Editor Window:Unity 编辑器中的界面,用于配置和与 LLM 交互

常见问题解答

  1. Python 服务器未连接:确保 Python 服务器正在运行,检查 Python 控制台中的错误
  2. 找不到 Unity MCP 菜单:确保编辑器脚本已正确导入项目,检查 Unity 控制台中的错误
  3. Ollama 连接问题:确保 Ollama 正在运行,模型已正确拉取,防火墙未阻止端口 11434
  4. MCP 命令执行失败:检查 Python 控制台中的详细错误消息,确保 Unity Bridge 正在运行

使用教程

使用依赖

  • Unity 2020.3 LTS 或更新版本
  • Python 3.10 或更新版本
  • Ollama 安装在系统上
  • 拉取支持的 LLM 模型: bash ollama pull deepseek-r1:14b ollama pull gemma3:12b

安装教程

  1. 下载并安装编辑器脚本 bash git clone https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git mkdir Assets/UnityMCPOllama cp -r unity-mcp-ollama/Editor Assets/UnityMCPOllama/Editor
  2. 设置 Python 环境 bash mkdir PythonMCP cd PythonMCP python -m venv venv source venv/bin/activate # macOS/Linux venv\Scripts\activate # Windows cd Python pip install -e .
  3. 配置 Ollama bash ollama serve

调试方式

  1. 启动 Unity Bridge:在 Unity 中打开 Window > Unity MCP,点击 Start Bridge
  2. 启动 Python 服务器bash cd PythonMCP/Python python server.py
  3. 配置 Ollama 设置:在 Unity MCP 窗口中配置 Ollama 的主机、端口和模型
  4. 使用聊天界面:在 Unity MCP 窗口中输入指令并发送

性能考虑

  • deepseek-r1:14b:推荐至少 12GB VRAM
  • gemma3:12b:推荐至少 10GB VRAM
  • CPU 操作可能但速度显著较慢

许可证

该项目遵循 MIT 开源许可条款,请参阅 MIT 了解完整条款。