需配置AnimateDiff插件实现静态图转视频:一、克隆插件至extensions并重启;二、下载匹配的motion module权重放入models/AnimateDiff/;三、在Animatediff选项卡中选择模型、设帧数与步幅;四、可选ControlNet增强姿态一致性;五、勾选Save GIF/MP4生成导出。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您已安装Stable Diffusion WebUI并希望为静态图像生成动态视频效果,则需要正确配置AnimateDiff插件以驱动基础模型输出帧序列。以下是实现该功能的具体操作路径:
一、安装AnimateDiff插件
AnimateDiff是一个独立于主WebUI的扩展模块,需手动下载适配版本并与motion module权重配合使用,确保其与当前所用的Stable Diffusion模型架构兼容。
1、进入WebUI根目录下的 extensions 文件夹。
2、在终端或命令行中执行:git clone https://github.com/ArtVentureX/stable-diffusion-webui-animatediff.git。
3、重启WebUI,确认插件出现在“Extensions”→“Installed”列表中且状态为已启用。
二、下载并放置Motion Module权重文件
Motion Module是AnimateDiff的核心驱动组件,负责建模帧间时序变化,必须与插件版本严格匹配,否则将导致加载失败或生成异常。
1、访问官方Release页面:https://github.com/guoyww/AnimateDiff/releases。
2、下载对应插件版本的 mm_sd_v15.ckpt(适用于SD 1.5)或 mm_sd_v21.ckpt(适用于SD 2.1)。
3、将下载的 .ckpt 文件放入 models/AnimateDiff/ 目录(若目录不存在,请手动创建)。
三、配置AnimateDiff参数面板
插件启用后会在WebUI文生图界面底部新增“Animatediff”选项卡,其中包含控制动画长度、关键帧间隔与运动强度的关键参数。
1、点击文生图界面下方的 Animatediff 标签页。
2、在“Model”下拉菜单中选择已放置的motion module文件名(如 mm_sd_v15.ckpt)。
3、设置 Frame Count(建议从8或16起步),并调整 Stride(默认为1,数值越大动作越跳跃)。
四、使用ControlNet增强动作一致性(可选但推荐)
当生成含人物肢体运动的视频时,单纯依赖AnimateDiff易出现肢体扭曲或结构崩坏,引入ControlNet可锁定姿态骨架,提升时序稳定性。
1、确保已安装 sd-webui-controlnet 插件并启用。
2、在ControlNet面板中上传一张参考姿势图,启用 openpose 预处理器。
3、将ControlNet权重设为 control_openpose_sdxl.pth(SDXL)或 control_openpose-fp16.safetensors(SD 1.5)。
五、生成并导出GIF或MP4
WebUI完成多帧推理后,会自动将输出帧暂存于 outputs/animatediff/ 目录,需进一步合成可视化格式。
1、勾选界面底部的 Save GIF 或 Save MP4 选项。
2、点击“Generate”,等待全部帧渲染完毕。
3、生成完成后,在输出区域点击 Open output directory,即可找到对应格式的动画文件。










