Stable Diffusion本地部署有四种可行路径:一、AutoDL一键镜像部署,适合无GPU或新手;二、Windows手动部署(Python 3.10.6+Git);三、Mac M系列用metal-backend分支;四、Linux下Docker容器化部署。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地计算机上运行Stable Diffusion AI实现文生图功能,但发现安装配置过程复杂、依赖冲突频发或显存报错频繁,则可能是由于Python环境、CUDA版本、模型路径或WebUI组件未正确协同。以下是完成Stable Diffusion本地部署的多种可行路径:
一、使用AutoDL一键打包镜像部署
该方法适用于无本地GPU或不熟悉命令行操作的用户,通过云端GPU实例预装完整环境,规避驱动与库版本兼容问题。
1、登录AutoDL官网,选择支持CUDA 11.8的A10或3090实例。
2、在镜像市场中搜索并选用已预装“Stable-Diffusion-WebUI”的官方镜像。
3、启动实例后,等待约90秒,复制控制台输出的http://xxx.xxx.xxx:7860地址。
4、在本地浏览器中打开该地址,确认出现WebUI界面且txt2img标签页可正常提交提示词。
5、将models/Stable-diffusion/目录挂载为持久化存储,上传自定义CKPT模型文件至该路径。
二、Windows平台手动部署(Python+Git方式)
该路径完全可控,适合需调试扩展插件或更换LoRA权重的进阶用户,要求系统已安装Visual Studio Build Tools及Git。
1、安装Python 3.10.6(必须精确版本,高版本会触发xformers兼容错误)。
2、下载Git for Windows并勾选“Add Git to the system PATH”选项完成安装。
3、以管理员身份运行CMD,执行:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git。
4、进入stable-diffusion-webui目录,双击运行webui-user.bat,首次运行将自动拉取依赖并编译xformers。
5、当控制台出现Running on local URL: http://127.0.0.1:7860时,在浏览器访问该地址。
三、Mac M系列芯片部署(基于mlc-llm适配分支)
针对Apple Silicon芯片,绕过CUDA限制,采用Metal加速后端,避免因ROCm或NVIDIA驱动缺失导致的启动失败。
1、确保已安装Xcode Command Line Tools及Homebrew。
2、执行命令:brew install rust cmake protobuf。
3、克隆专用分支:git clone --recursive https://github.com/mix3d/stable-diffusion-webui-macos.git。
4、进入目录后运行./macos_setup.sh,脚本将自动配置Python虚拟环境并编译metal-backend。
5、启动时添加参数--use-metal --precision full --no-half,防止FP16张量异常。
四、Docker容器化部署(Linux服务器适用)
适用于已有Ubuntu 22.04服务器且需多用户隔离运行的场景,所有依赖封装于镜像内,杜绝宿主机污染。
1、安装Docker Engine与NVIDIA Container Toolkit。
2、创建docker-compose.yml文件,指定镜像为ghcr.io/automating-stuff/stable-diffusion-webui:latest。
3、在volumes字段中映射宿主机路径:./models:/home/ubuntu/stable-diffusion-webui/models。
4、执行docker-compose up -d,容器启动后检查日志是否输出Startup time:时间戳。
5、通过服务器IP加端口7860访问,上传模型时需确保文件权限为644且属主为容器内ubuntu用户。










