国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

多輪Agent訓練拐點!清華首創(chuàng)可執(zhí)行數(shù)據(jù)閉環(huán),開源超越GPT-5

0
分享至


新智元報道

編輯:LRST

【新智元導讀】清華團隊提出EigenData系統(tǒng),通過可執(zhí)行數(shù)據(jù)閉環(huán)優(yōu)化多輪Agent訓練,在真實場景中使開源模型表現(xiàn)達到與閉源系統(tǒng)相當水平。關鍵在于訓練數(shù)據(jù)的穩(wěn)定性和可驗證性,確保模型在交互中能持續(xù)學習有效策略,而非依賴不可靠的獎勵信號。

過去一年,Agent的「能力競賽」幾乎走到了一個拐點:單輪工具調(diào)用、短鏈路推理的提升還在繼續(xù),但一旦進入真實多輪交互,系統(tǒng)開始暴露出完全不同的脆弱性。

工程團隊越來越頻繁地遇到同一問題:模型在離線評估中表現(xiàn)正常,但一旦進入真實多輪交互,訓練信號就開始頻繁失真。

一次異常的用戶行為、一次工具軌跡跑偏,都會把整段rollout的reward直接歸零,最終把強化學習推向錯誤方向。

越來越多的信號表明Agent訓練中:

多輪Tool-Using Agent的上限,越來越取決于訓練信號是否可歸因、可驗證,而不只是模型規(guī)模。

在τ2-bench等真實Tool-Using Agent基準中,研究者觀察到,多輪Agent在進入強化學習階段后,成功率并不總是隨訓練推進而單調(diào)提升,反而常伴隨明顯波動,這些波動并非來自模型能力不足,而更多源于長鏈路交互中用戶行為不穩(wěn)定與獎勵誤歸因的持續(xù)放大。

一項最新研究從系統(tǒng)層面重構(gòu)了多輪Agent的訓練流程:圍繞可執(zhí)行數(shù)據(jù)生成用戶模型穩(wěn)定化verifier-based獎勵提出了一套新的訓練范式,并在τ2-bench的三個真實工具域上完成驗證。


論文鏈接:https://arxiv.org/abs/2601.22607

在不引入更大模型規(guī)模的前提下,開源Qwen3系列模型在關鍵場景中實現(xiàn)了顯著提升:

Airline中73.0%pass1,與Gemini 3.0 Pro基本持平,明顯高于GPT-5(62.5%)

Telecom中98.3%pass1,達到當前公開的最佳結(jié)果,超過Gemini 3.0 Pro、Claude Sonnet與GPT-5

這些結(jié)果表明,借助系統(tǒng)級訓練范式的優(yōu)化,開源模型在真實工具交互任務上的可靠性已經(jīng)被推至與主流閉源系統(tǒng)同一梯隊。


多輪Agent難訓

并不是「不會用工具」

如果只停留在單輪工具調(diào)用層面,Agent的問題看起來并不復雜。

給定輸入、選擇工具、執(zhí)行一次、返回結(jié)果,reward也可以直接對應到這一步是否成功。

但一旦把視角拉到真實的多輪交互中,情況就完全變了。

對話被拉長為長鏈路的trajectory,工具調(diào)用不再是孤立事件,而是與用戶反饋交錯出現(xiàn);用戶狀態(tài)也不再是靜態(tài)前提,而是在交互過程中不斷暴露、甚至發(fā)生漂移。

此時,Agent 面對的已經(jīng)不是「會不會用工具」,而是能否在一個持續(xù)變化的系統(tǒng)中保持決策一致性

而在現(xiàn)實訓練環(huán)境中,模型往往表現(xiàn)出明顯的不穩(wěn)定性,模型容易學偏,甚至出現(xiàn)效果隨訓練波動、難以收斂的問題。

研究結(jié)果指明主要原因集中在兩點:

1. 缺乏真正「可用」的訓練數(shù)據(jù)

真正可用于多輪Agent訓練的數(shù)據(jù),必須同時覆蓋:

多輪對話+ 多步工具執(zhí)行 + 用戶側(cè)信息逐步透露/改變偏好。

問題在于,這樣的數(shù)據(jù)在現(xiàn)實中幾乎不可能通過人工標注規(guī)模化獲得。而自動合成的數(shù)據(jù),看似緩解了數(shù)據(jù)稀缺的問題,卻引入了新的隱患。

在大量樣本中,工具調(diào)用軌跡在文本層面「看起來合理」,但只要真正執(zhí)行一遍,就會觸發(fā)不可完成狀態(tài),trajectory 在中途失敗。

最終,Agent 學到的并不是穩(wěn)定、可復現(xiàn)的工具使用能力,而是一種停留在表層的策略模式(surface-level policy),即它看起來像在做事,卻無法在真實系統(tǒng)中跑通。

2. 用戶模擬的不穩(wěn)定性會直接污染RL信號

在interactive RL設置中,用戶模擬器是驅(qū)動對話不可或缺的一環(huán)。但我們發(fā)現(xiàn),開源模型充當用戶時經(jīng)常無法穩(wěn)定遵循指令,甚至會隨意調(diào)用工具,導致 rollout 提前失敗

在多輪Tool-Using Agent的訓練中,reward不再只取決于某一次工具調(diào)用是否成功,而是由整段交互trajectory的最終狀態(tài)統(tǒng)一決定。這意味著,只要鏈路中任何一個環(huán)節(jié)出現(xiàn)偏差:一次用戶行為異常、一次工具誤調(diào)用、一次狀態(tài)提前終止,整段rollout的reward都可能被直接歸零。

從結(jié)果上看,Agent「失敗」了;但從系統(tǒng)內(nèi)部看,失敗并不一定來自agent policy本身,也可能來自于用戶模型本身的不穩(wěn)定性。


在真實訓練過程中,user model往往并不能始終穩(wěn)定地遵循任務設定。它可能偏離指令、誤調(diào)用工具,甚至在關鍵步驟提前結(jié)束對話。

這些行為本身并非agent決策的結(jié)果,卻會直接決定最終reward。

于是,情況就變成Agent在局部決策上是正確的,但由于用戶行為偏移,最終環(huán)境狀態(tài)失敗,reward被統(tǒng)一判為0

從強化學習的視角看,這構(gòu)成了嚴重的credit assignment failure。reward無法區(qū)分失敗究竟源于 agent policy,還是來自user policy的異常行為。在這種條件下,強化學習并不會「修正」問題,而是會不斷將噪聲反向傳播到agent上,最終推動策略朝著錯誤方向收斂。

從這個角度看,多輪Agent的訓練瓶頸,并不完全是算法問題,而是一個系統(tǒng)結(jié)構(gòu)問題。

基于這一判斷,論文并沒有繼續(xù)在強化學習算法層面疊加復雜性,而是選擇從更底層的訓練流程入手,重新拆解agent與user的角色分工。

EigenData不「生成更多數(shù)據(jù)」

讓數(shù)據(jù)自己進化

在多輪Tool-Using Agent的訓練中,數(shù)據(jù)問題往往被簡化為一個數(shù)量問題:數(shù)據(jù)夠不夠多、覆蓋夠不夠廣。

但在真實long-horizon交互場景下,這個假設并不成立。

大量 synthetic data 在文本層面看起來合理,邏輯自洽、對話完整,但一旦真正執(zhí)行工具調(diào)用,就會暴露出根本性問題:工具參數(shù)不合法、狀態(tài)無法到達、任務在中途進入不可完成區(qū)域。

這意味著,模型并不是在「失敗中學習」,而是在用不可執(zhí)行的軌跡訓練自己。因此原文中EigenData的設計重點關注了如何構(gòu)建一個可閉環(huán)演化的數(shù)據(jù)生成過程,即:

生成數(shù)據(jù) → 發(fā)現(xiàn)失敗 → 自動修正prompt與workflow → 再生成

EigenData并不是傳統(tǒng)意義上的synthetic data pipeline,而是一個能夠根據(jù)失敗反饋持續(xù)迭代的多智能體系統(tǒng),結(jié)合自檢與自修復機制,逐步構(gòu)建出高質(zhì)量的數(shù)據(jù)集合。

在EigenData的工作流程中,每條訓練樣本都被要求必須滿足一個硬性條件:其對應的工具調(diào)用軌跡可以被完整執(zhí)行,并由verifier在代碼層面驗證最終環(huán)境狀態(tài)。

如果執(zhí)行失敗,失敗信息會被回流,用于自動修正 prompt、workflow 以及生成策略本身。

這使得數(shù)據(jù)分布并不是一次性生成的結(jié)果,而是會隨著失敗反饋持續(xù)向「可執(zhí)行區(qū)域」收斂。通過自動生成多輪對話并執(zhí)行真實工具調(diào)用,每一條數(shù)據(jù)實例都會配套一個「可執(zhí)行驗證器」,使得 Agent 行為是否成功可以通過代碼直接判斷,因此能夠保證數(shù)據(jù)質(zhì)量「越跑越好」。

從系統(tǒng)角度看,通過這一動作,EigenData不斷縮小了模型可以學習到的行為空間,使其對齊真實系統(tǒng)的可行解集。這一步保證了模型在RL介入之前,每個reward都可以真正對應到一個已經(jīng)被系統(tǒng)驗證后的結(jié)果,使訓練信號本身是可執(zhí)行、可驗證、可復現(xiàn)的。

先訓用戶模型,再訓Agent

即便訓練數(shù)據(jù)本身是可執(zhí)行的,多輪 Agent 的訓練仍然可能失敗。

原因在于,在interactive agent場景中,用戶模型本身就是系統(tǒng)的一部分。

如果user policy存在漂移或不穩(wěn)定性,即便 agent 的局部決策是正確的,整段 trajectory 仍可能因為用戶行為異常而失敗,最終 reward 被統(tǒng)一歸零。

基于這一認識,研究者們將訓練流程拆分為兩步:

  1. 首先,使用EigenData生成的可執(zhí)行對話數(shù)據(jù),對user model進行SFT微調(diào),使其行為穩(wěn)定、可控,并與任務設定對齊;

  2. 在用戶側(cè)不再成為主要噪聲源之后,才引入強化學習優(yōu)化agent policy。

這一拆分并不是額外的工程復雜度,而是一個系統(tǒng)級前置條件。它從根本上減少了 reward 的混雜來源,使強化學習不再頻繁懲罰「正確但被用戶行為破壞的決策」,訓練曲線也因此變得穩(wěn)定、可預測。

用「可執(zhí)行結(jié)果」替代主觀獎勵

在強化學習階段,該方法不再依賴模糊的reward model,而是用任務自帶的驗證函數(shù)(verifier)直接檢查最終環(huán)境狀態(tài),實現(xiàn)「對 / 錯」的可執(zhí)行、可審計獎勵信號。

在此基礎上,引入GRPO的group-relative advantage:針對同一任務采樣多條trajectory,進行組內(nèi)相對優(yōu)勢學習,以降低long-horizon交互導致的高方差與不穩(wěn)定性。

同時使用dynamic filtering剔除「全對/全錯」的低信息樣本,將訓練預算集中于具有區(qū)分度的任務子集。

在這些設計的共同作用下,RL信號更干凈、更穩(wěn)定,訓練過程也更不易出現(xiàn)策略漂移。


實驗結(jié)果

開源模型訓練至接近封閉模型水準

為了驗證這一套系統(tǒng)級訓練范式在真實交互場景中的有效性,研究者在τ2-bench的三個真實工具任務(Airline / Retail / Telecom)上進行了系統(tǒng)評估。評估采用pass1指標,即要求Agent在一次完整多輪交互中成功完成任務,這一指標能夠更直接反映 Agent 在 long-horizon 場景下的穩(wěn)定性與可靠性。

結(jié)果顯示,性能提升并非偶然,而是在多個場景中穩(wěn)定出現(xiàn)。

  • 在規(guī)則最復雜的Telecom場景中,Qwen3-235B-A22B-2507經(jīng)SFT + RL訓練后,pass1提升至98.3%,進入當前公開結(jié)果的最強梯隊;

  • Airline場景中,同一模型達到73.0% pass1,整體表現(xiàn)已與主流閉源系統(tǒng)對齊。

  • 更關鍵的是,在三域混合訓練設置下,一個模型同時學習多個工具環(huán)境,最終仍能保持81.3% 的平均 pass1,表明該方法學到的并非單一場景下的「投機策略」,而是更具通用性的 tool-using 能力。


進一步的消融實驗揭示了這些提升的來源。

一旦移除validation / verifier或數(shù)據(jù)自進化機制,SFT 階段的性能便出現(xiàn)明顯下降,說明數(shù)據(jù)的可執(zhí)行性與多樣性是能力形成的基礎;而如果在未對用戶模型進行穩(wěn)定化預訓練的情況下直接引入強化學習,整體性能反而會退化。這一結(jié)果表明,只有在用戶行為被有效控制的前提下,強化學習才能持續(xù)帶來正向增益。


可執(zhí)行訓練信號并不是一個「錦上添花」的技巧,而是一條明確的系統(tǒng)分界線。

當 Tool-Using Agent 進入真實多輪交互,問題不再只是「強化學習還能不能收斂」,而是訓練信號本身是否具備工程意義:它是否可執(zhí)行、可歸因、可驗證,是否真正對應到一個可復現(xiàn)的系統(tǒng)結(jié)果。這正是EigenData介入的位置。

通過將數(shù)據(jù)生成、工具執(zhí)行與verifier校驗統(tǒng)一進一個閉環(huán)系統(tǒng),EigenData不只是為RL提供了「更干凈的reward」,而是重新定義了什么樣的訓練信號才值得被強化學習放大。在這一前提下,GRPO、dynamic filtering等優(yōu)化策略才第一次擁有清晰、穩(wěn)定的作用對象。

論文給出的判斷標準其實非常直接:如果一個多輪Agent的訓練流程無法明確回答「reward 到底在獎勵誰、失敗究竟由誰導致、同一任務下哪條軌跡更好」,那它在工程上仍停留在「看起來能跑」的 workflow,而不是「可以持續(xù)優(yōu)化」的system。

從這個角度看,訓練中出現(xiàn)的performance oscillation、reward 被異常用戶行為清零、RL 反而帶來退化,并不是實現(xiàn)細節(jié)上的瑕疵,而是訓練信號尚未被系統(tǒng)性構(gòu)造的必然結(jié)果。

這項工作的核心貢獻,并不在于提出一種新的RL技巧,而在于通過EigenData將多輪Agent的post-training推向一個新的工程范式:

當訓練信號先被構(gòu)造成可執(zhí)行、可歸因、可驗證的系統(tǒng)對象時,強化學習才真正成為一種可控的系統(tǒng)優(yōu)化;在此之前,再多的 rollout 和更大的模型,也只是在噪聲之上疊加計算。

參考資料:

https://arxiv.org/abs/2601.22607

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
《鏢人》下跌嚴重,20億票房夢碎,預計虧損超2億

《鏢人》下跌嚴重,20億票房夢碎,預計虧損超2億

影視高原說
2026-02-26 18:45:47
感恩節(jié)凱莉·詹娜單人美照現(xiàn)身,海莉·比伯或暗示提莫西·查拉梅的關系

感恩節(jié)凱莉·詹娜單人美照現(xiàn)身,海莉·比伯或暗示提莫西·查拉梅的關系

奇思妙想生活家
2026-02-28 03:56:11
賴清德投誠大陸?“臺獨”內(nèi)部炸鍋,大陸心里有數(shù),這事絕不簡單

賴清德投誠大陸?“臺獨”內(nèi)部炸鍋,大陸心里有數(shù),這事絕不簡單

命運自認幽默
2026-02-26 20:28:59
徐帆回應離婚5個月,馮小剛近況曝光,他的“小心思”再藏不住了

徐帆回應離婚5個月,馮小剛近況曝光,他的“小心思”再藏不住了

觀察鑒娛
2026-01-13 10:07:17
商務部:調(diào)整對加拿大反歧視措施

商務部:調(diào)整對加拿大反歧視措施

界面新聞
2026-02-27 16:42:51
免去58歲市公安局副局長職務,同時任命一名新副局長(兼)

免去58歲市公安局副局長職務,同時任命一名新副局長(兼)

警界君
2026-02-27 17:58:10
服!日本媒體人:裁判如果正常吹罰,日本男籃將會是一場慘敗

服!日本媒體人:裁判如果正常吹罰,日本男籃將會是一場慘敗

體育哲人
2026-02-27 19:45:36
隆多慶40歲生日,退役轉(zhuǎn)型當教練,二婚妻子很美,已財富自由

隆多慶40歲生日,退役轉(zhuǎn)型當教練,二婚妻子很美,已財富自由

大西體育
2026-02-27 23:31:17
臨時抱佛腳沒用?總統(tǒng)宣:內(nèi)馬爾踢不了世界杯 安帥選人不看名氣

臨時抱佛腳沒用?總統(tǒng)宣:內(nèi)馬爾踢不了世界杯 安帥選人不看名氣

智道足球
2026-02-27 13:24:44
7500萬先生的掙扎:沃爾特馬德從閃亮到迷失,拜仁仍在暗中觀察

7500萬先生的掙扎:沃爾特馬德從閃亮到迷失,拜仁仍在暗中觀察

里芃芃體育
2026-02-28 03:00:03
北京迎來雨雪天氣

北京迎來雨雪天氣

中國能源網(wǎng)
2026-02-27 17:46:06
春節(jié)在農(nóng)村老家七天,才發(fā)現(xiàn)農(nóng)村人比城里更現(xiàn)實!

春節(jié)在農(nóng)村老家七天,才發(fā)現(xiàn)農(nóng)村人比城里更現(xiàn)實!

老特有話說
2026-02-25 23:02:42
遭33歲老將爆冷!世界第四止步16強顏面盡失 日乒一哥連續(xù)5站無冠

遭33歲老將爆冷!世界第四止步16強顏面盡失 日乒一哥連續(xù)5站無冠

顏小白的籃球夢
2026-02-27 20:21:27
豐田RAV4拆車:鋁合金防撞梁沒了,變成單層鋼板!

豐田RAV4拆車:鋁合金防撞梁沒了,變成單層鋼板!

大飆車
2026-02-27 12:45:53
至少在已經(jīng)過去的25年里,中國的“財神”不是趙公明,而是WTO!

至少在已經(jīng)過去的25年里,中國的“財神”不是趙公明,而是WTO!

細雨中的呼喊
2026-02-21 06:59:07
《鏢人》票房破10億,距《臥虎藏龍》還差5億,全球冠軍夢要碎了

《鏢人》票房破10億,距《臥虎藏龍》還差5億,全球冠軍夢要碎了

影視高原說
2026-02-27 19:18:49
俄烏沖突四周年:戰(zhàn)場上的那個“傻士兵”,得到了雙方的憐憫眷顧

俄烏沖突四周年:戰(zhàn)場上的那個“傻士兵”,得到了雙方的憐憫眷顧

一紙情書s
2026-02-25 22:44:24
“好萊塢爹地”佩德羅·帕斯卡傳戀情,男緋聞對象大有來頭!

“好萊塢爹地”佩德羅·帕斯卡傳戀情,男緋聞對象大有來頭!

ChicMyGeek
2026-02-27 19:10:06
傾家蕩產(chǎn)移居美國,得絕癥回國蹭醫(yī)保,工作人員:外籍人員不報銷

傾家蕩產(chǎn)移居美國,得絕癥回國蹭醫(yī)保,工作人員:外籍人員不報銷

浮光驚掠影
2026-02-28 01:44:58
撒貝寧一家回武漢走完親戚返京!老婆太漂亮,龍鳳胎身高沒有隨爹

撒貝寧一家回武漢走完親戚返京!老婆太漂亮,龍鳳胎身高沒有隨爹

大中國
2026-02-26 18:05:01
2026-02-28 05:16:49
新智元 incentive-icons
新智元
AI產(chǎn)業(yè)主平臺領航智能+時代
14604文章數(shù) 66646關注度
往期回顧 全部

科技要聞

狂攬1100億美元!OpenAI再創(chuàng)融資神話

頭條要聞

特朗普警告伊朗:“有時候不得不打”

頭條要聞

特朗普警告伊朗:“有時候不得不打”

體育要聞

一場必須要贏的比賽,男籃何止擊敗了裁判

娛樂要聞

郭晶晶霍啟剛現(xiàn)身香港藝術節(jié)盡顯恩愛

財經(jīng)要聞

沈明高提共富建議 百姓持科技股國家兜底

汽車要聞

嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

態(tài)度原創(chuàng)

房產(chǎn)
旅游
健康
藝術
軍事航空

房產(chǎn)要聞

重磅!海南“十五五”規(guī)劃出爐!未來五年,方向定了!

旅游要聞

蜜雪冰城主題樂園來了 選址已"出爐"!在河南總部

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

藝術要聞

紫氣東來,好運一整年!

軍事要聞

美國11架F-22隱形戰(zhàn)機抵達以色列

無障礙瀏覽 進入關懷版