流匹配模型因其堅實的理論基礎和在生成高質量圖像方面的優異性能,已成為圖像生成(Stable Diffusion, Flux)和視頻生成(可靈,WanX,Hunyuan)領域最先進模型的訓練方法。然而,這些最先進的模型在處理包含多個物體、屬性與關系的復雜場景,以及文本渲染任務時仍存在較大困難。與此同時,在線強化學習因其高效探索與反饋機制,在語言模型領域取得顯著進展,但在圖像生成中的應用仍處于初步階段。
為此,港中文 MMLab、快手可靈、清華大學等團隊聯合提出 Flow-GRPO,首個將在線強化學習引入 Flow Matching 模型的工作。在 Flow-GRPO 加持下,SD3.5 Medium 在 GenEval 基準測試中的準確率從 63% 提升到 95%,組合式生圖能力超越 GPT4o,這說明流匹配模型還有很大提升空間,Flow-GRPO 的成功實踐,為未來利用 RL 進一步解鎖和增強各類流匹配生成模型(包括但不限于圖像、視頻、3D 等)在可控性、組合性、推理能力方面的潛力,開辟了充滿希望的新范式。
論文標題: Flow-GRPO: Training Flow Matching Models via Online RL 論文鏈接: https://www.arxiv.org/pdf/2505.05470 代碼地址: https://github.com/yifan123/flow_grpo 模型地址: https://huggingface.co/jieliu/SD3.5M-FlowGRPO-GenEval
作者團隊也會盡快提供 Gradio 在線 demo 和包含大量生成 case,強化學習訓練過程中圖片變化的網頁,幫助讀者更好地體會 RL 對于流匹配模型的極大提升。
一、核心思路與框架概覽
Flow-GRPO 的核心在于兩項關鍵策略,旨在克服在線 RL 與流匹配模型內在特性之間的矛盾,并提升訓練效率:
ODE-SDE 等價轉換: 流匹配模型本質上依賴確定性的常微分方程(ODE)進行生成。為了強化學習探索所需的隨機性,作者采用了一種 ODE 到隨機微分方程(SDE)的轉換機制。該機制在理論上保證了轉換后的 SDE 在所有時間步上均能匹配原始 ODE 模型的邊緣分布,從而在不改變模型基礎特性的前提下,為 RL 提供了有效的探索空間。
去噪步數「減負」提效: 在 RL 訓練采樣時,大膽減少生成步數(例如從 40 步減到 10 步),極大加速數據獲取;而在最終推理生成時,仍然使用完整步數,保證高質量輸出。在極大提升 online RL 訓練效率的同時,保證性能不下降。
圖 1 Flow-GRPO 框架 二、ODE to SDE
GRPO 的核心是依賴隨機采樣過程,以生成多樣化的軌跡批次用于優勢估計和策略探索。但對于流匹配模型,其確定性的采樣過程不滿足 GRPO 要求。為了解決這個局限性,作者將確定性的 Flow-ODE 轉換為一個等效的 SDE,它匹配原始模型的邊際概率密度函數,在論文附錄 A 中作者提供了詳細的證明過程。原始的 flow matching 模型 inference 的時候按照如下公式:
轉變成 SDE 后,最終作者得到的采樣形式如下:
之后就可以通過控制噪聲水平的參數很好地控制 RL 策略的探索性。
三、Denoising Reduction
為了生成高質量的圖像,流模型通常需要大量的去噪步驟,這使得在線強化學習的訓練數據收集成本較高。作者發現,對于在線強化學習訓練,較大的時間步長在樣本生成時是多余的,只需要在推理時保持原有的去噪步驟仍能獲得高質量的樣本。作者在訓練時將時間步長設置為 10,而推理時的時間步長保持為原始的默認設置 40。通過這樣的「訓練時低配,測試時滿配」的設置,達到了在不犧牲最終性能的情況下實現快速訓練。
四、核心實驗效果
Flow-GRPO 在多個 T2I(文本到圖像)生成任務中表現卓越:
復雜組合生成能力大幅提升: 在 GenEval 基準上,將 SD3.5-M 的準確率從 63% 提升至 95%,在物體計數、空間關系理解、屬性綁定上近乎完美,在該評測榜單上效果超越 GPT-4o!
圖 2 Flow-GRPO 訓練過程中的性能持續上升
圖 3 GenEval 各項指標詳細結果
圖 4 在 GenEval 基準上的定性比較
文字渲染精準無誤: 視覺文本渲染準確率從 59% 大幅提升至 92%,可以較為準確地在圖片中渲染文字。
更懂人類偏好: 在人類偏好對齊任務上也取得了顯著進步。
獎勵黑客行為顯著減少: Flow-GRPO 在性能提升的同時,圖像質量和多樣性基本未受影響,有效緩解 reward hacking 問題。
五、總結與展望
作為首個將在線強化學習引入流匹配模型的算法,Flow-GRPO 通過將流模型的確定性采樣機制改為隨機微分方程(SDE)采樣,并引入 Denoising Reduction 技術,實現了在流匹配模型上的高效在線強化學習。實驗結果顯示,即便是當前最先進的 flow matching 模型,在引入強化學習后依然有顯著的性能提升空間。Flow-GRPO 在組合式生成、文字渲染和人類偏好等任務上,相比基線模型均取得了大幅改進。
Flow-GRPO 的意義不僅體現在指標上的領先,更在于其揭示了一條利用在線強化學習持續提升流匹配生成模型性能的可行路徑。其成功實踐為未來進一步釋放流匹配模型在可控性、組合性與推理能力方面的潛力,尤其在圖像、視頻、3D 等多模態生成任務中,提供了一個充滿前景的新范式。
作者:劉杰 來源: 公眾號【機器之心】
llustration From IconScout By IconScout Store
-The End-
掃碼觀看!
本周上新!
“AI技術流”原創投稿計劃
TechBeat是由將門創投建立的AI學習社區(www.techbeat.net)。社區上線600+期talk視頻,3000+篇技術干貨文章,方向覆蓋CV/NLP/ML/Robotis等;每月定期舉辦頂會及其他線上交流活動,不定期舉辦技術人線下聚會交流活動。我們正在努力成為AI人才喜愛的高質量、知識型交流平臺,希望為AI人才打造更專業的服務和體驗,加速并陪伴其成長。
投稿內容
// 最新技術解讀/系統性知識分享 //
// 前沿資訊解說/心得經歷講述 //
投稿須知
稿件需要為原創文章,并標明作者信息。
我們會選擇部分在深度技術解析及科研心得方向,對用戶啟發更大的文章,做原創性內容獎勵
投稿方式
發送郵件到
melodybai@thejiangmen.com
或添加工作人員微信(yellowsubbj)投稿,溝通投稿詳情;還可以關注“將門創投”公眾號,后臺回復“投稿”二字,獲得投稿說明。
關于我“門”
將門是一家以專注于數智核心科技領域的新型創投機構,也是北京市標桿型孵化器。 公司致力于通過連接技術與商業,發掘和培育具有全球影響力的科技創新企業,推動企業創新發展與產業升級。
將門成立于2015年底,創始團隊由微軟創投在中國的創始團隊原班人馬構建而成,曾為微軟優選和深度孵化了126家創新的技術型創業公司。
如果您是技術領域的初創企業,不僅想獲得投資,還希望獲得一系列持續性、有價值的投后服務,歡迎發送或者推薦項目給我“門”:
bp@thejiangmen.com
點擊右上角,把文章分享到朋友圈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.