5月29日上午9点,青稞Talk 第52期,加州大学伯克利分校计算机科学博士生席浩诚,将直播分享《Sparse VideoGen:无需重新训练的视频扩散 Transformer 推理加速框架》。
分享嘉宾
席浩诚,加州大学伯克利分校计算机科学博士一年级学生,师从Kurt Keutzer教授,研究方向聚焦于大型语言模型(LLM)和扩散模型的高效训练与推理。本科毕业于清华大学姚班,期间师从陈键飞教授和朱军教授。席浩诚曾在英伟达担任实习研究员,与韩松教授合作,参与FP8低精度训练方法的研发。他在ICML、NeurIPS、ICLR等国际顶级会议上发表多篇论文,代表性成果包括Sparse VideoGen、COAT、Jetfire等,致力于推动大模型训练的效率和可扩展性。
主题提纲
Sparse VideoGen无需重新训练的视频扩散 Transformer 推理加速框架
1、DiTs 在视频生成中的优劣势
2、利用注意力机制时空稀疏性加速视频扩散 Transformer
- 无损像素保真度的实现
- 硬件高效的稀疏注意力计算内核 Layout Transformation
- QK-Norm 和 RoPE 的优化
3、在 Wan 2.1、HunyuanVideo 和 CogVideoX-v1.5 上的应用及评估
成果链接
论文名称:Sparse VideoGen: Accelerating Video Diffusion Transformers with Spatial-Temporal Sparsity
论文链接:https://arxiv.org/abs/2502.01776
论文代码:https://github.com/svg-project/Sparse-VideoGen
直播时间
5月29日上午9:00 - 10:00
参与方式
Talk 将在青稞·知识社区上进行,扫码对暗号:" 0529 ",报名进群!