国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

小模型讀書大模型思考:上海AI Lab提出新知識(shí)推理解耦方法DRIFT

0
分享至



本文主要完成單位為上海人工智能實(shí)驗(yàn)室,主要作者謝文軒、譚鑫、陸超超、胡俠等,通訊作者為實(shí)驗(yàn)室青年研究員汪旭鴻。

當(dāng)長(zhǎng)上下文成為負(fù)擔(dān):我們是否真的需要「把一切都塞進(jìn)推理模型」?

當(dāng)前,隨著大家對(duì)大模型推理能力要求的提升,輸入上下文也在不斷變長(zhǎng),1M tokens 及以上的上下文窗口正逐漸成為現(xiàn)實(shí),但「讀得更長(zhǎng)」一定會(huì)帶來推理提升嗎?

在現(xiàn)實(shí)應(yīng)用中,情況往往并不理想。當(dāng)推理模型直接處理超長(zhǎng)原始文本時(shí),瓶頸往往不再來自「不會(huì)推理」,而是來自讀不完、讀不動(dòng)、讀不準(zhǔn):

  • 推理模型需要處理大量與任務(wù)無關(guān)的冗余信息;
  • 計(jì)算成本與延遲隨 token 數(shù)快速上升;
  • 關(guān)鍵信息容易被淹沒在長(zhǎng)文本中;
  • 原始長(zhǎng)文本中可能藏匿惡意內(nèi)容,增加模型安全風(fēng)險(xiǎn)。

這也引出了一個(gè)更本質(zhì)的問題:知識(shí)獲?。╮eading)與邏輯推理(reasoning),是否真的必須由同一個(gè)模型完成?

復(fù)雜推理或許需要大模型,但從海量信息中獲取知識(shí)未必如此。

為解決這一問題,來自上海人工智能實(shí)驗(yàn)室與復(fù)旦大學(xué)的研究團(tuán)隊(duì)提出了 DRIFT:一種將知識(shí)獲取推理明確解耦的長(zhǎng)上下文推理框架。

DRIFT 采用雙模型架構(gòu):輕量知識(shí)模型負(fù)責(zé)讀取超長(zhǎng)文檔,并將與當(dāng)前任務(wù)強(qiáng)相關(guān)的關(guān)鍵信息壓縮成高密度隱空間表示;推理模型直接利用這些表示進(jìn)行推理,無需處理龐雜原文。

實(shí)驗(yàn)結(jié)果表明:DRIFT 顯著提升推理效率,并在高壓縮比設(shè)置下仍保持甚至提升任務(wù)性能,展示了 reading–reasoning 解耦的實(shí)際價(jià)值。

更有意思的是,即使沒有任何安全訓(xùn)練,由于推理模型不再直接接觸原始文本,該結(jié)構(gòu)在多種安全基準(zhǔn)上表現(xiàn)出更強(qiáng)的魯棒性。



  • 論文鏈接:https://arxiv.org/abs/2602.10021
  • 開源主頁:https://github.com/Lancelot-Xie/DRIFT

現(xiàn)有方法:壓縮、檢索與記憶,問題出在「誰來讀」「怎么讀」

為應(yīng)對(duì)超長(zhǎng)上下文帶來的計(jì)算和推理壓力,現(xiàn)有工作從三個(gè)方向入手:壓縮輸入、引入檢索,或參數(shù)化存儲(chǔ)知識(shí)。

壓縮的方法有兩類,一類方法通過硬壓縮直接刪除「低重要性」token ,但依賴局部、靜態(tài)的重要性估計(jì),容易誤刪關(guān)鍵信息;另一類工作采用軟壓縮,將文本映射為 latent 表示,但本質(zhì)仍是靜態(tài)壓縮,壓縮結(jié)果與任務(wù)無關(guān),容易保留冗余信息而忽視有用信息。

此外,一些方法依賴 RAG 從外部語料中檢索相關(guān)內(nèi)容,但整體效果受限于檢索器性能,對(duì)檢索策略較為敏感。也有工作通過參數(shù)化記憶模塊存儲(chǔ)知識(shí),推理效率較高,但通常依賴預(yù)訓(xùn)練,難以支持即時(shí)注入的超長(zhǎng)新知識(shí)。

此外,DeepSeek 的 Engram 通過條件化參數(shù)記憶,將可復(fù)用的知識(shí)模式從 Transformer 主干中分離出來,在架構(gòu)層面實(shí)現(xiàn)了知識(shí)存儲(chǔ)與推理計(jì)算的解耦,從而提升效率與性能。不過,Engram 的記憶主要面向靜態(tài)長(zhǎng)期知識(shí),更適合對(duì)已知信息的高效調(diào)用;對(duì)于即時(shí)注入的新知識(shí),其適配性仍然有限。

本文核心貢獻(xiàn):

  • 提出 reading–reasoning 解耦的結(jié)構(gòu)性視角:將知識(shí)獲取與邏輯推理顯式分離,打破推理模型必須直接處理原始上下文的傳統(tǒng)范式;
  • 重構(gòu)知識(shí)輸入模態(tài):由小模型從超長(zhǎng)文檔中抽取與任務(wù)相關(guān)的高密度知識(shí)表示,不再以冗余的原始文本作為推理模型輸入;
  • 構(gòu)建并驗(yàn)證高效的雙模型框架:在多個(gè)長(zhǎng)上下文推理基準(zhǔn)上表明,該架構(gòu)在顯著壓縮上下文規(guī)模的同時(shí),仍能保持甚至提升復(fù)雜推理性能,并大幅降低推理延遲。

DRIFT 的核心:將 reading 與 reasoning 明確解耦

DRIFT 的核心思想并不是「如何壓得更狠」,而是重新定義知識(shí)進(jìn)入推理模型的方式:推理模型不再直接處理冗長(zhǎng)的自然語言文本,而是接收一種由小模型從原文中提煉出的、為推理而設(shè)計(jì)的高密度知識(shí)表示。這種表示可以被視為獨(dú)立于文本形式的「知識(shí)輸入模態(tài)」。

基于這一視角,DRIFT 關(guān)注的不是改進(jìn)文本處理流程,而是回答一個(gè)更根本的問題:讀取知識(shí)與執(zhí)行推理,是否本就應(yīng)由不同模塊承擔(dān)?

在 DRIFT 中,小模型負(fù)責(zé)「讀文檔」并抽取與當(dāng)前問題相關(guān)的關(guān)鍵信息,將其轉(zhuǎn)化為緊湊的內(nèi)部知識(shí)表示;推理模型則直接以這一模態(tài)作為輸入,而無需再重新閱讀和解析原始文本。

基于這種思想,DRIFT 的架構(gòu)如圖所示:



DRIFT 整體框架圖

Knowledge Model(小模型)

  • 處理超長(zhǎng)文檔輸入;
  • 并行讀取文本塊并提取 query-relevant 信息,壓縮為隱空間知識(shí)表示。

Reasoning Model(大模型)

  • 不再接觸原始長(zhǎng)文本;
  • 僅基于隱空間中的高密度事實(shí)表示執(zhí)行推理。

Implicit Fact Tokens:一種中間知識(shí)表示

Implicit Fact Tokens 并不是:

  • 句子級(jí)摘要
  • 檢索得到的文本片段

而是一種:

  • 基于問題生成的隱空間表示
  • 高信息密度的知識(shí)表示
  • 專門為推理設(shè)計(jì)的輸入模態(tài)

三階段訓(xùn)練:教模型「怎么讀,也怎么想」

DRIFT 采用三階段訓(xùn)練策略:

  • LFRP:重建任務(wù),讓知識(shí)模型學(xué)會(huì)壓縮信息;
  • QAFT-DC:動(dòng)態(tài)壓縮任務(wù),讓知識(shí)模型學(xué)會(huì)基于 query 壓縮相關(guān)信息;
  • QAFT-QA:QA 任務(wù),讓推理模型學(xué)會(huì)基于 latent facts 推理。



實(shí)驗(yàn)結(jié)果:壓得更狠,反而想得更清楚

在 LongBench-v2、LoCoMo、BAMBOO、L-Eval 等基準(zhǔn)上進(jìn)行了測(cè)試,涵蓋長(zhǎng)文本問答、多文檔摘要、多輪對(duì)話長(zhǎng)程記憶等等場(chǎng)景,模型采用了知識(shí)模型 3B 和推理模型 7B 的組合:

  • 32× 壓縮:性能整體接近甚至超過 Full-context;
  • 64× / 128×:穩(wěn)定優(yōu)于 ICAE / COCOM /xRAG 等壓縮方法;
  • 推理延遲:在各上下文長(zhǎng)度下保持最低或接近最低。





種種實(shí)驗(yàn)說明:當(dāng)閱讀和推理被清晰拆分后,模型反而能更高效地工作。

推理能力并未被削弱:通用語言理解依然在線

一個(gè)自然的問題是:脫離原文閱讀后,推理模型是否會(huì)失去通用能力?

實(shí)驗(yàn)表明并非如此,訓(xùn)練后的推理模型仍能處理復(fù)雜推理、知識(shí)問答、代碼生成和指令遵循等通用任務(wù)。



解耦架構(gòu)帶來的安全收益



實(shí)驗(yàn)還發(fā)現(xiàn),在Flames、SaladBench、AutoDAN、PAIR等安全基準(zhǔn)上,DRIFT 的安全魯棒性也顯著優(yōu)于原始模型。

更有意思的是,這一提升并未經(jīng)過任何安全相關(guān)的訓(xùn)練。研究者認(rèn)為這可能源于 DRIFT 的結(jié)構(gòu):推理模型不再直接暴露于攻擊 prompt,而是基于中間知識(shí)表示進(jìn)行推理,從而天然降低了越獄攻擊或安全誘導(dǎo)的影響。

知識(shí)解耦的典型應(yīng)用 —— 蛋白質(zhì)理解任務(wù)

DRIFT 提供的是一種結(jié)構(gòu)性視角:讓小模型「讀」,讓大模型「想」。

與其讓推理模型承擔(dān)所有職責(zé),不如讓它專注于最擅長(zhǎng)的推理能力。這一思路在AGI for Science中同樣成立。以蛋白質(zhì)任務(wù)為例,我們的另一項(xiàng)工作「BioBridge: Bridging Proteins and Language for Enhanced Biological Reasoning with LLMs」中提出了類似的問題:是否有必要讓 LLM 直接理解蛋白質(zhì)序列?

BioBridge 的答案與 DRIFT 一致:由專門模型負(fù)責(zé)「讀懂蛋白」,LLM 專注「推理」。

具體來說,就是使用蛋白語言模型(PLM)解析序列并生成 LLM 可理解的中間表示,再由 LLM 基于此進(jìn)行任務(wù)相關(guān)的推理。

這種reading–reasoning解耦 使 BioBridge 同時(shí)保持:

  • 接近 SOTA 蛋白質(zhì)模型 的專業(yè)能力
  • 原有 LLM 的通用能力



總結(jié)

從 DRIFT 到 BioBridge,團(tuán)隊(duì)看到的是同一條清晰的技術(shù)主線:讓推理模型直接「讀」原始知識(shí)輸入往往并不是最優(yōu)選擇;更有效的做法,是先將領(lǐng)域知識(shí)提煉為適合推理的表示,再交由推理模型進(jìn)行推理。

這種結(jié)構(gòu)性的解耦,不僅提高了效率,還可能帶來額外的安全收益。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
謝苗新片火出國外了!爛番茄100分封神,已定檔5月上映

謝苗新片火出國外了!爛番茄100分封神,已定檔5月上映

喜歡歷史的阿繁
2026-03-26 01:17:02
德黑蘭街頭忽然空了:巴斯基帳篷被遺棄,民兵連夜跑了,為什么?

德黑蘭街頭忽然空了:巴斯基帳篷被遺棄,民兵連夜跑了,為什么?

老馬拉車莫少裝
2026-03-24 22:55:20
公職人員下班后這5種行為,將嚴(yán)肅處理,千萬別踩紅線!

公職人員下班后這5種行為,將嚴(yán)肅處理,千萬別踩紅線!

細(xì)說職場(chǎng)
2026-03-26 11:13:03
簡(jiǎn)直降維打擊,NBA扣籃大賽三冠王麥克朗榮膺G聯(lián)賽歷史得分王

簡(jiǎn)直降維打擊,NBA扣籃大賽三冠王麥克朗榮膺G聯(lián)賽歷史得分王

懂球帝
2026-03-25 12:12:11
浙江一男子做飯割傷手,去醫(yī)院途中多次暈血倒地:想著走到人多的地方暈了會(huì)有人來救

浙江一男子做飯割傷手,去醫(yī)院途中多次暈血倒地:想著走到人多的地方暈了會(huì)有人來救

大象新聞
2026-03-25 22:45:07
戰(zhàn)場(chǎng)奇跡!1臺(tái)烏軍機(jī)器人死守陣地45天硬剛俄軍沖殺和機(jī)槍掃射

戰(zhàn)場(chǎng)奇跡!1臺(tái)烏軍機(jī)器人死守陣地45天硬剛俄軍沖殺和機(jī)槍掃射

子桑說
2026-03-25 17:27:05
胡兵沒想到,張雪峰意外猝死僅1天,竟讓51歲瞿穎口碑再次暴漲

胡兵沒想到,張雪峰意外猝死僅1天,竟讓51歲瞿穎口碑再次暴漲

愛下廚的阿釃
2026-03-26 06:20:07
患難見真心:張雪峰與001號(hào)員工萬霞,藏在創(chuàng)業(yè)路上的溫暖與遺憾

患難見真心:張雪峰與001號(hào)員工萬霞,藏在創(chuàng)業(yè)路上的溫暖與遺憾

楓紅染山徑
2026-03-25 20:18:12
巴拿馬賠款不足,中方擴(kuò)大反制港口管控升級(jí)

巴拿馬賠款不足,中方擴(kuò)大反制港口管控升級(jí)

徐醇老表哥
2026-03-26 04:41:05
3月17日重慶新橋醫(yī)院 廣西女子求醫(yī)掛不上號(hào) 醫(yī)生下班蹲地看片暖哭

3月17日重慶新橋醫(yī)院 廣西女子求醫(yī)掛不上號(hào) 醫(yī)生下班蹲地看片暖哭

觀星賞月
2026-03-26 05:17:03
南京一大廈有女生墜樓?記者核實(shí):系謠言,實(shí)為外省某大廈事件誤傳

南京一大廈有女生墜樓?記者核實(shí):系謠言,實(shí)為外省某大廈事件誤傳

揚(yáng)子晚報(bào)
2026-03-25 18:25:42
美國現(xiàn)在才知道,中國是全世界唯一內(nèi)在、外在都最強(qiáng)大的超級(jí)大國

美國現(xiàn)在才知道,中國是全世界唯一內(nèi)在、外在都最強(qiáng)大的超級(jí)大國

混沌錄
2026-03-25 19:50:06
內(nèi)存之后 CPU火了!Intel/AMD處理器集體告急:缺貨長(zhǎng)達(dá)六個(gè)月、全面大漲價(jià)

內(nèi)存之后 CPU火了!Intel/AMD處理器集體告急:缺貨長(zhǎng)達(dá)六個(gè)月、全面大漲價(jià)

快科技
2026-03-26 11:13:22
張雪峰離世,商業(yè)版圖被扒,北京房產(chǎn)被賤賣,巨額資金流向曝光

張雪峰離世,商業(yè)版圖被扒,北京房產(chǎn)被賤賣,巨額資金流向曝光

蕭獻(xiàn)記錄風(fēng)土人情
2026-03-25 17:00:54
當(dāng)醫(yī)生看病遇到同行,網(wǎng)友:基本一句勸都聽不到了!

當(dāng)醫(yī)生看病遇到同行,網(wǎng)友:基本一句勸都聽不到了!

夜深愛雜談
2026-03-25 21:05:25
大規(guī)模往中東調(diào)兵——美國要賭國運(yùn)了

大規(guī)模往中東調(diào)兵——美國要賭國運(yùn)了

百味朱砂
2026-03-25 11:46:14
做人一定不要像張雪峰

做人一定不要像張雪峰

羅sir財(cái)話
2026-03-24 21:59:56
省政府領(lǐng)導(dǎo)班子密集調(diào)整,省委常委任常務(wù)副省長(zhǎng)

省政府領(lǐng)導(dǎo)班子密集調(diào)整,省委常委任常務(wù)副省長(zhǎng)

上觀新聞
2026-03-25 15:46:23
匈牙利外長(zhǎng):即日起逐步停止向?yàn)蹩颂m輸送天然氣

匈牙利外長(zhǎng):即日起逐步停止向?yàn)蹩颂m輸送天然氣

財(cái)聯(lián)社
2026-03-26 00:09:09
吳柳芳:我因?yàn)楣艹砍奖痪W(wǎng)暴!母親生病父親欠債 當(dāng)主播一年還清40萬

吳柳芳:我因?yàn)楣艹砍奖痪W(wǎng)暴!母親生病父親欠債 當(dāng)主播一年還清40萬

草莓解說體育
2026-03-26 06:36:20
2026-03-26 11:48:49
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12601文章數(shù) 142593關(guān)注度
往期回顧 全部

科技要聞

Meta高管狂分百億期權(quán),700名員工卻下崗

頭條要聞

36歲男子辭百萬年薪工作 在電商賣玩具半年賺了300萬

頭條要聞

36歲男子辭百萬年薪工作 在電商賣玩具半年賺了300萬

體育要聞

35歲替補(bǔ)門將,憑什么入選英格蘭隊(duì)?

娛樂要聞

張雪峰家人首發(fā)聲 不設(shè)追思會(huì)喪事從簡(jiǎn)

財(cái)經(jīng)要聞

黃仁勛:芯片公司的時(shí)代已經(jīng)結(jié)束了

汽車要聞

一汽奧迪A6L e-tron開啟預(yù)售 CLTC最大續(xù)航815km

態(tài)度原創(chuàng)

房產(chǎn)
藝術(shù)
親子
旅游
游戲

房產(chǎn)要聞

質(zhì)價(jià)比標(biāo)桿!三亞首創(chuàng)浮島全景艙亮相,還得是萬科!

藝術(shù)要聞

哪一座橋不是風(fēng)景?

親子要聞

你娃三歲前已經(jīng)當(dāng)夠大孝子了

旅游要聞

南京珍珠河櫻花滿樹夢(mèng)幻燦爛

新馬里奧兄弟重制MC評(píng)分86!痛點(diǎn)解決 畫面性能暴漲

無障礙瀏覽 進(jìn)入關(guān)懷版