本期為TechBeat人工智能社區第680期線上Talk。
北京時間4月24日(周四)20:00,北京大學博士生張柏榮的Talk將準時在TechBeat人工智能社區開播!
他與大家分享的主題是:“SafeVLA - 首個VLA具身大模型安全建模算法”,屆時他將探討如何在確保安全的前提下,讓機器人真正走入人類社會,并介紹首個VLA具身大模型安全建模算法SafeVLA。
Talk·信息
主題:SafeVLA - 首個VLA具身大模型安全建模算法
嘉賓:北京大學 · 博士生 - 張柏榮
時間:北京時間4月24日(周四)20:00
地點:TechBeat人工智能社區
http://www.techbeat.net/
Talk·介紹
最近,具身智能機器人領域的一系列突破震驚了全球。從Unitree人形機器人在春晚表演二人轉,到波蘭街頭機器人“遛”機器狗的趣味場景,這些案例不僅展示了機器人與人類在物質和精神層面深度交互的潛力,也將人機交互中的安全問題推到了風口浪尖。如何在確保安全的前提下,讓機器人真正走入人類社會,已成為亟待解決的關鍵問題。
Talk大綱
1. 背景 - 走向開放世界的具身安全 具身安全的歷史淵源:從constrained motion planning和safe reinforcement learning視角出發 VLA的訓練技術對比與剖析
2. 動機與問題 - 當前的VLA模型缺乏顯式安全性建模 VLA模型面臨的安全性挑戰
3. 解決方案 - SafeVLA:首個VLA具身大模型安全建模算法 場景與安全約束定義 如何解決安全負樣本建模與數據稀缺的挑戰
4. 展望 - 安全性的Sim-2-Real gap 動態場景下的具身安全
Talk·預習資料
具身安全的歷史淵源: Kingston Z, Moll M, Kavraki L E. Sampling-based methods for motion planning with constraints[J]. Annual review of control, robotics, and autonomous systems, 2018, 1(1): 159-185.
Brunke L, Greeff M, Hall A W, et al. Safe learning in robotics: From learning-based control to safe reinforcement learning[J]. Annual Review of Control, Robotics, and Autonomous Systems, 2022, 5(1): 411-444.
安全強化學習: Ji J, Zhang B, Zhou J, et al. Safety gymnasium: A unified safe reinforcement learning benchmark[J]. Advances in Neural Information Processing Systems, 2023, 36: 18964-18993.
Ji J, Zhou J, Zhang B, et al. Omnisafe: An infrastructure for accelerating safe reinforcement learning research[J]. Journal of Machine Learning Research, 2024, 25(285): 1-6.
VLA仿真建模: Kolve E, Mottaghi R, Han W, et al. Ai2-thor: An interactive 3d environment for visual ai[J]. arXiv preprint arXiv:1712.05474, 2017.
Ehsani K, Gupta T, Hendrix R, et al. SPOC: Imitating Shortest Paths in Simulation Enables Effective Navigation and Manipulation in the Real World[J]. arXiv preprint arXiv:2312.02976, 2023.
VLA模型對齊的現狀: Hu J, Hendrix R, Farhadi A, et al. Flare: Achieving masterful and adaptive robot policies with large-scale reinforcement learning fine-tuning[J]. arXiv preprint arXiv:2409.16578, 2024.
Zhang Z, Zheng K, Chen Z, et al. Grape: Generalizing robot policy via preference alignment[J]. arXiv preprint arXiv:2411.19309, 2024.
論文鏈接: https://arxiv.org/abs/2503.03480 項目主頁: https://sites.google.com/view/pku-safevla
Talk·提問交流
在Talk界面下的【交流區】參與互動!留下你的打call和問題,和更多小伙伴們共同討論,被講者直接翻牌解答!
你的每一次貢獻,我們都會給予你相應的i豆積分,還會有驚喜獎勵哦!
Talk·嘉賓介紹
張柏榮???????????
北京大學 · 博士生???
張柏榮,北京大學人工智能研究院2025級直博生,導師為楊耀東助理教授,研究方向為具身智能對齊,重點專注具身VLA大模型的Post-training,在CCF-A類頂級學術會議(NeurIPS,ICLR等)與期刊(JMLR)發表多篇論文。谷歌學術引用1000余次,成果被OpenAI 、Meta、圖靈獎獲得者Yoshua Bengio等引用,被MIT Tech Review報道。主導開發的Safety-Gymnasium和OmniSafe兩個GitHub開源庫累計收獲1.3K+星,被北京大學、清華大學、加州大學伯克利分校、卡內基梅隆大學等國內外知名科研機構用作基準環境和算法框架。
個人主頁: https://www.techbeat.net/grzytrkj?id=44565
-The End-
如果你也想成為講者
自薦 / 推薦
單人Talk | 團隊專場 | 錄播or直播 | 閉門交流
多種方式任你選擇!
推薦講者成功也有獎勵哦~
關于TechBeat人工智能社區
TechBeat(www.techbeat.net)隸屬于將門創投,是一個薈聚全球華人AI精英的成長社區。
我們希望為AI人才打造更專業的服務和體驗,加速并陪伴其學習成長。
期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據地!
更多詳細介紹>>
預約本期Talk
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.