Stable Diffusion 本地部署完全指南:免费无限量AI绘画
Stable Diffusion 是目前最强大的开源 AI 绘画模型。本文详细介绍如何在本地部署,实现免费无限量使用。
为什么选择本地部署?
| 对比项 | 本地部署 | 在线服务 |
|---|---|---|
| 费用 | 一次投入 | 持续付费 |
| 使用量 | 无限制 | 有限额 |
| 隐私 | 完全私密 | 上传云端 |
| 自定义 | 高度自由 | 受限 |
| 速度 | 取决于硬件 | 可能排队 |
硬件要求
最低配置
- 显卡:NVIDIA GTX 1660 6GB
- 内存:16GB RAM
- 硬盘:50GB 可用空间
- 系统:Windows 10/11 或 Linux
推荐配置
- 显卡:NVIDIA RTX 3060 12GB 或更高
- 内存:32GB RAM
- 硬盘:SSD 200GB+
- 系统:Windows 11 或 Ubuntu 22.04
方案选择
方案一:Stable Diffusion WebUI(推荐新手)
由 AUTOMATIC1111 开发,功能最全面,社区最活跃。
方案二:ComfyUI(推荐进阶)
节点式工作流,适合复杂场景和批量处理。
方案三:Fooocus(最简单)
一键安装,开箱即用,适合纯小白。
本文以 WebUI 为例。
安装步骤
1. 安装 Python
下载 Python 3.10.x(不要用更高版本):
1 | |
2. 安装 Git
1 | |
3. 克隆 WebUI
1 | |
4. 下载模型
将模型文件放入 models/Stable-diffusion/ 目录:
推荐模型:
| 模型 | 特点 | 大小 |
|---|---|---|
| SD 1.5 | 经典通用 | 4GB |
| SDXL 1.0 | 高质量 | 6.5GB |
| Anything V5 | 动漫风格 | 4GB |
| Realistic Vision | 真实人像 | 4GB |
下载地址:Civitai 或 HuggingFace
5. 启动 WebUI
Windows:
1 | |
Linux/Mac:
1 | |
首次启动会自动下载依赖,可能需要 10-30 分钟。
启动成功后访问:http://127.0.0.1:7860
基础使用
文生图(txt2img)
- 在 Prompt 输入正向提示词
- 在 Negative Prompt 输入负向提示词
- 设置图片尺寸(建议 512x512 或 768x768)
- 点击 Generate
示例提示词:
1 | |
图生图(img2img)
- 上传参考图片
- 设置 Denoising strength(0.3-0.7)
- 输入提示词描述想要的效果
- 生成
常用参数
| 参数 | 说明 | 推荐值 |
|---|---|---|
| Steps | 采样步数 | 20-30 |
| CFG Scale | 提示词权重 | 7-9 |
| Sampler | 采样器 | DPM++ 2M Karras |
| Seed | 随机种子 | -1(随机) |
进阶功能
ControlNet
精确控制生成图片的姿势、轮廓、深度等:
1 | |
常用预处理器:
- Canny:边缘检测
- OpenPose:姿势控制
- Depth:深度图
- Lineart:线稿
LoRA
轻量级微调模型,用于特定风格或人物:
1 | |
放大(Upscale)
将图片放大到更高分辨率:
- Hires.fix:生成时直接放大
- Extras:后期单独放大
- 推荐放大器:R-ESRGAN 4x+
常见问题
Q: 显存不足
1 | |
Q: 生成速度慢
- 使用 xformers 加速:
--xformers - 降低图片尺寸
- 减少采样步数
Q: 图片质量差
- 使用高质量模型(SDXL)
- 优化提示词
- 增加采样步数
- 使用 Hires.fix 放大
推荐资源
模型下载
- Civitai - 最大的模型社区
- HuggingFace - 官方模型库
提示词参考
学习社区
- r/StableDiffusion
- B站/YouTube 教程
总结
本地部署 Stable Diffusion 虽然有一定门槛,但一旦配置好,就能获得完全自由的 AI 绘画能力。建议从基础功能开始,逐步探索进阶玩法。
下一篇:《ControlNet 进阶:精准控制 AI 绘画构图》
Stable Diffusion 本地部署完全指南:免费无限量AI绘画
https://your-site.pages.dev/2025/11/18/stable-diffusion-local-deploy/