1. 首页
  2. 青稞Talk
  3. RLinf-VLA 实践:从零上手 VLA(OpenVLA )强化学习

RLinf-VLA 实践:从零上手 VLA(OpenVLA )强化学习

  • 发布于 2025-11-25
  • 23 次阅读

直播平台

视频号

相关资源

演示文稿 (PPT)

直播配套幻灯片

暂未提供

最近半年,VLA 在机器人策略学习上的惊艳表现,让“用规模推动智能”再次成为可能,也被视为通往通用智能的重要路径。强化学习被普遍认为能进一步释放 VLA 的潜力。但现实却很骨感:缺少成熟的 RL 框架、难以复用的代码结构、高昂的显卡开销,都让新算法的开发门槛居高不下。

image-pZef.png

为了解决这些痛点,我们打造了 RLinf-VLA ——一个统一、高效、可扩展的 VLA 强化学习框架,让你能专注于算法本身,而不是在工程复杂度里挣扎。它不仅优化了训练与推理的资源利用,还在架构上为多种仿真器、VLA模型和 RL 算法支持。

https://arxiv.org/pdf/2510.06710

12月2日(周二)晚8点,青稞Talk 第94期,RLinf 强化学习框架 VLA 部分的核心开发人员之一、清华大学交叉信息研究院本科生臧宏之,将直播分享《RLinf-VLA 实践:从零上手 VLA(OpenVLA )强化学习》。

在本次直播中,我们将深入讲解 RLinf-VLA 的设计思路、系统结构与实际性能。

分享嘉宾

臧宏之,清华大学交叉信息研究院本科生,研究兴趣在强化学习与机器人学习。RLinf 强化学习框架 VLA 部分的核心开发人员之一。

主题提纲

RLinf-VLA 实践:从零上手 VLA(OpenVLA )强化学习

1、RLinf-VLA 的设计思路与系统架构
2、关于 VLA+RL 的算法技术设计: PPO / GRPO 等
3、OpenVLA 的微调实践
4、AMA (Ask Me Anything)环节

直播时间

12月2日20:00 - 21:00