香港大学与上海人工智能实验室、华为诺亚方舟实验室合作,推出高效扩散模型lit,该模型在架构设计和训练策略上均有创新,实现了在普通windows笔记本电脑上离线生成1k分辨率高清图像。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

LiT的核心突破:
为提升扩散模型效率,LiT采用极简线性注意力机制替代计算成本更高的自注意力机制。线性注意力的优势在于简洁性和高并行化能力,这对于大型模型至关重要。研究团队总结了以下关键经验:
- 极简线性注意力足够: 无需复杂的线性注意力变体,简化版即可满足图像生成需求。
- 权重继承策略: 建议从预训练的Diffusion Transformer模型继承权重,但需排除自注意力模块的权重。
- 混合知识蒸馏: 采用知识蒸馏加速训练,同时蒸馏噪声预测和方差预测结果,以获得更佳效果。
性能表现:
LiT在ImageNet基准测试中,仅需DiT模型20%-23%的训练迭代次数,即可达到相当的FID分数。在文本生成图像任务中,LiT-0.6B可在离线状态下,于Windows笔记本电脑上快速生成1K分辨率的逼真图像,展现出强大的端侧部署能力。
论文及项目信息:
- 论文名称:LiT: Delving into a Simplified Linear Diffusion Transformer for Image Generation
- 论文地址:https://www.php.cn/link/523f43693bfa6c607d2fe43b43ba96fd
- 项目主页:https://www.php.cn/link/2d6c3e4023165b5a99515b9bf87cb41d
研究背景:
Diffusion Transformer在文生图领域展现出巨大潜力,但自注意力机制的高计算复杂度限制了其在高分辨率场景和端侧设备的应用。LiT通过线性注意力机制有效解决了这一问题,并通过高效的训练策略进一步降低了训练成本。

(后续内容可根据原文目录,对架构设计、训练方法、实验结果等章节进行类似的改写,保持原意不变,并保留图片格式和位置)










