国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

DeepSeek的GRPO會導(dǎo)致模型崩潰?看下Qwen3新范式GSPO

0
分享至



機器之心報道

機器之心編輯部

眾所周知,大型語言模型的訓(xùn)練通常分為兩個階段。第一階段是「預(yù)訓(xùn)練」,開發(fā)者利用大規(guī)模文本數(shù)據(jù)集訓(xùn)練模型,讓它學(xué)會預(yù)測句子中的下一個詞。第二階段是「后訓(xùn)練」,旨在教會模型如何更好地理解和執(zhí)行人類指令。

在 LLM 后訓(xùn)練階段,似乎是一個強化學(xué)習(xí)的特殊形式。用于大語言模型(LLMs)微調(diào)的強化學(xué)習(xí)(RL)算法正沿著一條明確的演進路徑持續(xù)發(fā)展。

起初,OpenAI 開創(chuàng)了一種名為 基于人類反饋的強化學(xué)習(xí)(RLHF)的技術(shù),用于改進 ChatGPT。RLHF 的核心是讓人類標(biāo)注員對模型生成的多種響應(yīng)進行打分,并選出最優(yōu)答案作為訓(xùn)練參考。這一過程雖然有效,但也耗時、昂貴且依賴人力,通常需要一支小型但專業(yè)的數(shù)據(jù)標(biāo)注團隊。

DeepSeek 的重要創(chuàng)新在于用 RL 技術(shù)自動化了這一環(huán)節(jié)。算法不再依賴人工逐一評估,而是讓模型在探索過程中,通過獲得「獎勵信號」自主學(xué)習(xí)正確行為,從而顯著降低了成本,提高了效率,最終能以較低的成本實現(xiàn)高性能。

OpenAI 在 ChatGPT 的訓(xùn)練中采用了近端策略優(yōu)化(Proximal Policy Optimization, PPO)

而 DeepSeek 團隊 則認為,在一組樣本中進行價值估計更加有效,因此提出了組相對策略優(yōu)化(Group Relative Policy Optimization, GRPO)算法,這也是 DeepSeek-R1 中的核心技術(shù),使 DeepSeek-R1 模型大放異彩。



GPRO 與 PPO 的對比,摘自 DeepSeekMath 論文。

在幾個月前 Qwen3 首次亮相的時候,其旗艦?zāi)P偷男阅芫鸵呀?jīng)與 DeepSeek-R1、o3-mini、Gemini 2.5 Pro 等頂級模型表現(xiàn)相當(dāng)。除此以外,Qwen3 系列模型覆蓋了 MoE 模型和密集模型,每一款模型又有許多細分版本。

近些天,Qwen3 系列模型仍然在不停的迭代更新,例如 Qwen3-235B-A22B-Instruct-2507-FP8 在知識數(shù)學(xué)、編程、人類偏好對齊、Agent 能力等眾多測評中表現(xiàn)出色,甚至了超過 Kimi-K2、DeepSeek-V3 等頂級開源模型以及 Claude-Opus4-Non-thinking 等領(lǐng)先閉源模型。

最近,Qwen 團隊發(fā)布了一篇有關(guān)其模型后訓(xùn)練算法的論文,似乎揭示了 Qwen3 模型成功的核心技術(shù)細節(jié)。



  • 論文標(biāo)題:Group Sequence Policy Optimization
  • 論文鏈接:https://huggingface.co/papers/2507.18071
  • 博客鏈接:https://qwenlm.github.io/blog/gspo/

而在昨天,來自清華大學(xué)校友創(chuàng)立的創(chuàng)業(yè)公司 NetMind.AI發(fā)表了一篇博客,題為《Qwen Team Proposes GSPO for Qwen3, Claims DeepSeek's GRPO is Ill-Posed》,對 Qwen 團隊為 Qwen3 模型提出的 GSPO 算法進行了詳盡的介紹與分析。



  • 博客鏈接:https://blog.netmind.ai/article/Qwen_Team_Proposes_GSPO_for_Qwen3%2C_Claims_DeepSeek's_GRPO_is_Ill-Posed

最近 Qwen 的研究表明,使用 GRPO 訓(xùn)練大語言模型時存在嚴(yán)重的穩(wěn)定性問題,往往會導(dǎo)致模型不可逆地崩潰。他們認為 DeepSeek 的 GPRO 方法存在一些嚴(yán)重問題:

  • 在每個 token 級別應(yīng)用重要性采樣,會在長序列中積累高方差,導(dǎo)致訓(xùn)練不穩(wěn)定
  • 這一問題在 專家混合模型(Mixture-of-Experts, MoE) 中尤為嚴(yán)重,因為token 級別的路由變化會加劇不穩(wěn)定性
  • 為緩解這一問題,基于 GRPO 的訓(xùn)練流程通常需要依賴一些額外策略,例如 路由重放(Routing Replay)。

因此,Qwen 團隊聲稱 GRPO 的 token 級重要性采樣無法達到穩(wěn)定訓(xùn)練,其優(yōu)化目標(biāo)是「病態(tài)的(ill-posed)」

為了解決這些問題并訓(xùn)練其最新的 Qwen3 系列模型,Qwen 團隊提出了一種新的強化學(xué)習(xí)算法 ——組序列策略優(yōu)化(Group Sequence Policy Optimization, GSPO)

GRPO 的根本問題:

「逐 token 重要性采樣」的不穩(wěn)定性

Qwen 團隊指出,GRPO 的不穩(wěn)定性源于其對 token 級重要性采樣權(quán)重的錯誤使用。在強化學(xué)習(xí)中,重要性采樣(Importance Sampling)用于校正行為策略(即用于收集訓(xùn)練數(shù)據(jù)的策略)與目標(biāo)策略(當(dāng)前正在優(yōu)化的策略)之間的差異。

當(dāng)兩者不一致時,重要性采樣通過為已有數(shù)據(jù)樣本賦予權(quán)重,使其更能代表當(dāng)前希望優(yōu)化的目標(biāo)策略,從而提高訓(xùn)練的穩(wěn)定性與有效性。

在大語言模型(LLMs)的訓(xùn)練中,強化學(xué)習(xí)常常會復(fù)用舊策略生成的響應(yīng),以節(jié)省計算資源,這屬于典型的「離策略」(off-policy)訓(xùn)練場景。重要性采樣正是用于緩解這種策略不匹配帶來的影響,并幫助穩(wěn)定訓(xùn)練過程。

然而,GRPO 將重要性采樣的權(quán)重應(yīng)用在每一個 token 上,而非整個生成的序列。這種做法會帶來顯著的方差,并在生成較長序列時造成「誤差積累」與「訓(xùn)練不穩(wěn)定性」。

從形式上講,GRPO 是在每一個 token 的生成步驟上單獨計算重要性權(quán)重的:



Qwen 團隊指出,當(dāng)在訓(xùn)練目標(biāo)中應(yīng)用此類重要性權(quán)重時,由于每個 token 的比值是獨立計算的,會導(dǎo)致高方差的累積,從而破壞梯度穩(wěn)定性,最終引發(fā)模型崩潰。

同時,這種做法會將高方差噪聲引入訓(xùn)練梯度中,尤其在長序列上呈現(xiàn)累積效應(yīng),并且在存在「裁剪機制」時,這種不穩(wěn)定性問題會進一步加劇。

Qwen 團隊的實驗證據(jù)

Qwen 團隊通過實驗證據(jù)驗證了其理論分析,如圖所示。

在所有展示的實驗場景中,其新提出的算法 GSPO 均表現(xiàn)出比 GRPO 更高的訓(xùn)練效率。在 CodeForces 任務(wù)中,GRPO 的最終得分收斂于 2000 分以下,而 GSPO 隨著訓(xùn)練計算量的增加持續(xù)提升成績,展現(xiàn)出更強的「可擴展性」。



GSPO 與 GRPO 的訓(xùn)練曲線對比

Qwen 的解決方案:

「序列級重要性采樣」

那么,GSPO 是如何解決上述問題的呢?

正如其名稱所暗示的,GSPO 的核心在于將重要性采樣從 token 級轉(zhuǎn)移至序列級,其重要性比值基于整個序列的似然度計算:



這種采樣權(quán)重的設(shè)計自然地緩解了逐 token 方差的累積問題,從而顯著提升了訓(xùn)練過程的穩(wěn)定性。

需要注意的是,指數(shù)中的因子用于「長度歸一化」。如果不進行長度歸一化,僅僅幾個 token 的似然變化就可能導(dǎo)致序列級重要性比值的劇烈波動,而不同長度的生成響應(yīng)在目標(biāo)函數(shù)中也將需要不同的裁剪范圍,這會進一步增加訓(xùn)練的不穩(wěn)定性。

實驗驗證的優(yōu)勢:

簡化 MoE 模型訓(xùn)練

針對專家混合模型(MoE)所進行的專項實驗進一步強調(diào)了 GSPO 的優(yōu)勢。

由于 MoE 模型具有稀疏激活特性,這會在使用 GRPO 時進一步加劇訓(xùn)練過程中的不穩(wěn)定性。在經(jīng)過一次或多次梯度更新后,相同響應(yīng)所激活的專家網(wǎng)絡(luò)可能發(fā)生顯著變化。

Qwen 團隊在使用 GRPO 訓(xùn)練 48 層的 Qwen3-30B-A3B-Base 模型時發(fā)現(xiàn):在每一次強化學(xué)習(xí)的梯度更新后,對于相同的 rollout 樣本,新策略所激活的專家中約有 10% 與舊策略所激活的專家不同。這實際上意味著,每次梯度更新后,你都在用不同的數(shù)據(jù)樣本訓(xùn)練不同的模型,毫無疑問這是一種極其低效的訓(xùn)練方式。

在引入 GSPO 之前,為緩解這一問題,他們甚至采取了一種名為「Routing Replay」的技巧,即強制目標(biāo)策略激活與舊策略相同的專家網(wǎng)絡(luò)。

相比之下,GSPO 無需使用 Routing Replay 也能實現(xiàn)穩(wěn)定收斂,從而消除了不必要的訓(xùn)練復(fù)雜性,并保留了 MoE 架構(gòu)的全部潛力。



Routing Replay 策略在 GRPO 訓(xùn)練 MoE 模型的正常收斂中起到了關(guān)鍵作用

結(jié)論:

GSPO 或?qū)⒊蔀樾碌臉?biāo)準(zhǔn)

總結(jié)一下,GSPO 的方法有兩點創(chuàng)新:

  • 將重要性采樣從 token 級別提升到序列級別,并通過序列長度進行歸一化處理;
  • 顯著降低了方差,同時消除了對「路由技巧」(如 Routing Replay)等輔助策略的依賴;

業(yè)界已普遍達成共識 —— 在大語言模型的后訓(xùn)練階段引入強化學(xué)習(xí),對于提升其推理能力至關(guān)重要。

而論文中的大量實驗結(jié)果也進一步證實,GRPO 所采用的「逐 token 重要性采樣」方法存在不穩(wěn)定性和低效性的問題。

因此,GSPO 提出的「序列級重要性采樣」很可能會成為未來后訓(xùn)練強化學(xué)習(xí)的新標(biāo)準(zhǔn)。

https://www.reddit.com/r/MachineLearning/comments/1mj3t3r/d_gspo_qwen3s_sequencelevel_rlhf_method_vs_grpo/

https://blog.netmind.ai/article/Qwen_Team_Proposes_GSPO_for_Qwen3%2C_Claims_DeepSeek's_GRPO_is_Ill-Posed

https://www.ft.com/content/ea803121-196f-4c61-ab70-93b38043836e?utm_source=chatgpt.com

https://zhuanlan.zhihu.com/p/22845155602

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
日本發(fā)現(xiàn)原版吳三桂反叛檄文,揭開降清原因:難怪清廷要抹黑他

日本發(fā)現(xiàn)原版吳三桂反叛檄文,揭開降清原因:難怪清廷要抹黑他

掠影后有感
2025-12-25 12:43:41
白宮發(fā)言人萊維特宣布懷孕,發(fā)文感謝特朗普支持,贊揚其“在白宮營造了支持家庭的環(huán)境”

白宮發(fā)言人萊維特宣布懷孕,發(fā)文感謝特朗普支持,贊揚其“在白宮營造了支持家庭的環(huán)境”

都市快報橙柿互動
2025-12-27 15:07:34
中美日11月汽車銷量對比:特斯拉49.7,豐田超90,比亞迪令人意外

中美日11月汽車銷量對比:特斯拉49.7,豐田超90,比亞迪令人意外

趣文說娛
2025-12-26 17:37:09
果然每個國家都有自己的「牛馬套餐」

果然每個國家都有自己的「牛馬套餐」

窮游網(wǎng)
2025-12-03 10:46:27
最狠“順風(fēng)車”,一年跑了24萬公里!司機:車子有智駕!

最狠“順風(fēng)車”,一年跑了24萬公里!司機:車子有智駕!

網(wǎng)約車焦點
2025-12-27 10:52:34
痛心!安徽“半掛西施”王迪去世,有三臺X6000,出事前剛換輪胎

痛心!安徽“半掛西施”王迪去世,有三臺X6000,出事前剛換輪胎

阿纂看事
2025-12-27 23:23:46
廣東95-89迎7連勝!3外援54分!2人罰下,杜鋒迎2好消息1壞消息

廣東95-89迎7連勝!3外援54分!2人罰下,杜鋒迎2好消息1壞消息

老吳說體育
2025-12-28 21:59:04
錢再多有啥用?70歲身價千億的比爾蓋茨,還是要為23歲女兒操碎心

錢再多有啥用?70歲身價千億的比爾蓋茨,還是要為23歲女兒操碎心

瓜汁橘長Dr
2025-12-27 14:39:12
狂輸36分,7連敗!CBA最大混子球隊出爐,球迷:快滾出CBA

狂輸36分,7連敗!CBA最大混子球隊出爐,球迷:快滾出CBA

體育哲人
2025-12-28 00:22:24
10年跟蹤100多個孩子, 杜克教授發(fā)現(xiàn):照這個趨勢, 滑落的中產(chǎn)只會越來越多

10年跟蹤100多個孩子, 杜克教授發(fā)現(xiàn):照這個趨勢, 滑落的中產(chǎn)只會越來越多

二胎媽媽圈
2025-12-25 22:14:35
全球唯一中藥龍頭,回購2億全部注銷,市盈率13倍,股息率5%

全球唯一中藥龍頭,回購2億全部注銷,市盈率13倍,股息率5%

鵬哥投研
2025-12-28 15:19:14
喪心病狂!41歲國乒奧運冠軍全家遭死亡威脅 憤怒回應(yīng):準(zhǔn)備報警

喪心病狂!41歲國乒奧運冠軍全家遭死亡威脅 憤怒回應(yīng):準(zhǔn)備報警

念洲
2025-12-28 15:39:27
洪森最大的失誤:低估了西哈莫尼國王,高估了兒子洪瑪奈!

洪森最大的失誤:低估了西哈莫尼國王,高估了兒子洪瑪奈!

阿柒的訊
2025-12-23 18:22:55
79歲李保田現(xiàn)狀:定居山東衰老明顯,兒子李彧長得像父親“翻版”

79歲李保田現(xiàn)狀:定居山東衰老明顯,兒子李彧長得像父親“翻版”

小熊侃史
2025-12-20 10:56:45
《阿凡達3》內(nèi)地票房破7億元

《阿凡達3》內(nèi)地票房破7億元

界面新聞
2025-12-28 22:17:50
1978 年,中央為彭德懷舉行追悼大會,其侄子侄女聯(lián)名要求:不準(zhǔn)她參加

1978 年,中央為彭德懷舉行追悼大會,其侄子侄女聯(lián)名要求:不準(zhǔn)她參加

老杉說歷史
2025-12-21 14:29:12
陳百強自殺真相曝光!王晶揭穿32年豪門謊言:他根本不是為情所困

陳百強自殺真相曝光!王晶揭穿32年豪門謊言:他根本不是為情所困

八斗小先生
2025-12-08 11:07:02
《早安隆回》全網(wǎng)播放量超1600億,作者袁樹雄:這首歌讓我的負債沒了,將為2026世界杯寫新歌

《早安隆回》全網(wǎng)播放量超1600億,作者袁樹雄:這首歌讓我的負債沒了,將為2026世界杯寫新歌

極目新聞
2025-12-26 17:59:39
中國制造正在殺死歐洲圣誕市場?

中國制造正在殺死歐洲圣誕市場?

刺猬公社
2025-12-26 07:36:17
影后辛芷蕾,這張照片攝影師得加雞腿,抓拍的太到位了

影后辛芷蕾,這張照片攝影師得加雞腿,抓拍的太到位了

徐幫陽
2025-12-23 18:33:38
2025-12-28 22:51:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12000文章數(shù) 142522關(guān)注度
往期回顧 全部

科技要聞

特斯拉將在華布局自動駕駛?記者求證→

頭條要聞

農(nóng)民種地被抓涉嫌犯罪 律師:涉案土地面積或達數(shù)萬畝

頭條要聞

農(nóng)民種地被抓涉嫌犯罪 律師:涉案土地面積或達數(shù)萬畝

體育要聞

MVP概率達82.5%!約基奇連超大鳥喬丹

娛樂要聞

白敬亭現(xiàn)身冰雪大世界 拍視頻還翻車了

財經(jīng)要聞

英偉達的收購史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

房產(chǎn)
教育
健康
家居
公開課

房產(chǎn)要聞

降維打擊!三亞CBD驚現(xiàn)“豪宅新王”,高端局要變天了!

教育要聞

地理干貨|高中地理易錯知識點期末整理

這些新療法,讓化療不再那么痛苦

家居要聞

格調(diào)時尚 智慧品質(zhì)居所

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版