Sparse VideoGen:无需重新训练的 DiTs 推理加速框架

📅 直播时间:2025-05-29 09:00 🎥 观看直播

Canvas – 733.png

5月29日上午9点,青稞Talk 第52期,加州大学伯克利分校计算机科学博士生席浩诚,将直播分享《Sparse VideoGen:无需重新训练的视频扩散 Transformer 推理加速框架》。

分享嘉宾

席浩诚,加州大学伯克利分校计算机科学博士一年级学生,师从Kurt Keutzer教授,研究方向聚焦于大型语言模型(LLM)和扩散模型的高效训练与推理。本科毕业于清华大学姚班,期间师从陈键飞教授和朱军教授。席浩诚曾在英伟达担任实习研究员,与韩松教授合作,参与FP8低精度训练方法的研发。他在ICML、NeurIPS、ICLR等国际顶级会议上发表多篇论文,代表性成果包括Sparse VideoGen、COAT、Jetfire等,致力于推动大模型训练的效率和可扩展性。

主题提纲

Sparse VideoGen无需重新训练的视频扩散 Transformer 推理加速框架

1、DiTs 在视频生成中的优劣势
2、利用注意力机制时空稀疏性加速视频扩散 Transformer
- 无损像素保真度的实现
- 硬件高效的稀疏注意力计算内核 Layout Transformation
- QK-Norm 和 RoPE 的优化
3、在 Wan 2.1、HunyuanVideo 和 CogVideoX-v1.5 上的应用及评估

成果链接

论文名称:Sparse VideoGen: Accelerating Video Diffusion Transformers with Spatial-Temporal Sparsity
论文链接:https://arxiv.org/abs/2502.01776
论文代码:https://github.com/svg-project/Sparse-VideoGen

直播时间

5月29日上午9:00 - 10:00

参与方式

Talk 将在青稞·知识社区上进行,扫码对暗号:" 0529 ",报名进群!