国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

清華劉知遠(yuǎn)團隊論文:最小化結(jié)構(gòu)改動,短文本到長文本絲滑升級 | ICLR 2026

0
分享至


InfLLM-V2:通過最小結(jié)構(gòu)擾動,實現(xiàn)大模型從短上下文到長上下文的平滑升級。

作者丨鄭佳美

編輯丨岑峰

在大語言模型快速邁向更強推理能力與更復(fù)雜應(yīng)用場景的過程中,“上下文長度”已經(jīng)從一個模型配置參數(shù),演變?yōu)橹萍s系統(tǒng)能力上限的關(guān)鍵瓶頸。

一方面,長文檔理解、跨輪對話記憶、復(fù)雜規(guī)劃與長鏈?zhǔn)酵评淼热蝿?wù),對模型提出了遠(yuǎn)超傳統(tǒng) 4k 或 8k 序列長度的需求;另一方面,主流 Transformer 架構(gòu)中基于全注意力機制的計算模式,在序列長度增長時不可避免地帶來平方級的時間與顯存開銷,使得“支持更長上下文”在現(xiàn)實工程中迅速轉(zhuǎn)化為難以承受的成本問題。

圍繞這一矛盾,稀疏注意力幾乎成為學(xué)術(shù)界與工業(yè)界的共識方向,但隨之而來的,并不是問題的徹底解決,而是一系列新的結(jié)構(gòu)性張力。

過去數(shù)年中,大量工作嘗試通過引入新的注意力結(jié)構(gòu)、路由機制或可訓(xùn)練稀疏模塊來緩解計算壓力。這些方法在理論復(fù)雜度或特定評測上往往表現(xiàn)出色,但在真實模型訓(xùn)練與部署流程中,卻逐漸暴露出一個被長期低估的問題:當(dāng)前大語言模型幾乎無一例外遵循“短序列預(yù)訓(xùn)練、長序列微調(diào)”的訓(xùn)練范式,而一些修改模型架構(gòu)的稀疏注意力方案例如NSA,在結(jié)構(gòu)、參數(shù)或輸出形式上與標(biāo)準(zhǔn) dense attention 存在顯著不對齊。

正是在這一背景下,清華大學(xué)劉知遠(yuǎn)團隊提出了《InfLLM-V2: Dense-Sparse Switchable Attention for Seamless Short-to-Long Adaptation》。與以往強調(diào)“引入新結(jié)構(gòu)”或“增加可訓(xùn)練模塊”的路徑不同,這項研究將關(guān)注點前移至一個更基礎(chǔ)的問題:稀疏注意力是否必須以改變模型結(jié)構(gòu)為代價,才能獲得長上下文效率?

為此研究團隊提出了一種 dense–sparse 可切換的注意力框架,試圖在以原有 dense attention 參數(shù)作為起始點,保持輸出形式不變,做到長短文本可同時訓(xùn)練,且能高效地實現(xiàn)從短上下文到長上下文的平滑過渡。

值得一提的是,這項工作并未將重點放在單一指標(biāo)的提升上,而是系統(tǒng)性地從性能保持、訓(xùn)練穩(wěn)定性以及端到端推理效率三個層面,對這一設(shè)計思路進行了驗證,從而為長上下文大語言模型的研究與工程實踐提供了一條不同于以往的技術(shù)路線。


論文地址:https://arxiv.org/pdf/2509.24663

01
一次「是否真可用」的實驗回答

整體來看,研究的實驗設(shè)計并非簡單地驗證“InfLLM-V2 是否有效”,而是圍繞三個逐層遞進的核心問題展開:第一,在長上下文任務(wù)中,該方法的性能是否能夠逼近甚至匹配全注意力機制;第二,在“短序列預(yù)訓(xùn)練 → 長序列微調(diào)”的真實訓(xùn)練范式下,該方法是否會破壞模型原有能力;第三,在完整推理流程中,稀疏注意力帶來的計算加速是否能夠轉(zhuǎn)化為端到端的實際收益。

圍繞第一個問題,研究團隊重點評測了多種長輸入理解任務(wù)。在 32k 長度的 RULER 基準(zhǔn)上,InfLLM-V2(Sparse)在絕大多數(shù)子任務(wù)中的表現(xiàn)幾乎與 Full Attention 重合,而訓(xùn)練后稀疏方法(如 InfLLM、MInference)在部分任務(wù)上出現(xiàn)明顯性能斷崖,可訓(xùn)練稀疏注意力方法 NSA 在短序列到長序列遷移的設(shè)定下也顯著落后。

這一結(jié)果表明,InfLLM-V2 的稀疏策略并未破壞跨塊的長距離依賴建模能力,而其他方法要么在 block 選擇階段失效,要么對原有注意力分布造成了顯著擾動。


在更貼近真實應(yīng)用場景的 LongBench 基準(zhǔn)上,這一趨勢表現(xiàn)得更加明顯。由于 LongBench 覆蓋問答、摘要、推理以及多語言等多種真實任務(wù),其整體難度高于合成數(shù)據(jù)集,但 InfLLM-V2(Sparse)的整體得分依然達(dá)到甚至略微超過 Full Attention。

相比之下,NSA 的性能明顯低于全注意力,而僅依賴長度外推的 SHORT+YaRN 方法則出現(xiàn)了大幅性能退化。研究人員進一步觀察到,InfLLM-V2 的 dense / sparse 可切換機制在部分任務(wù)中反而降低了注意力噪聲,從而使模型輸出更加穩(wěn)定。


在 LongPPL 這一用于衡量長序列語言建模能力的困惑度評測中,InfLLM-V2 的表現(xiàn)與 Full Attention 基本一致,而 NSA 的困惑度顯著更高。這一結(jié)果說明,NSA 在短到長遷移訓(xùn)練后并未真正學(xué)會建模長程語言分布,其較低的訓(xùn)練 loss 并未轉(zhuǎn)化為有效的長序列建模能力。


圍繞第二個問題,研究團隊還系統(tǒng)評估了長鏈?zhǔn)酵评砣蝿?wù),包括 MATH-500、AIME 以及 LiveCodeBench。這類任務(wù)的共同特點在于輸出序列較長,且中間推理步驟高度依賴早期上下文信息。

實驗結(jié)果顯示,InfLLM-V2(Sparse)在這些任務(wù)上的表現(xiàn)與 Full Attention 幾乎持平,而 NSA 在所有相關(guān)任務(wù)中均出現(xiàn)了明顯的性能下降。這直接表明,InfLLM-V2 所采用的稀疏注意力機制不會破壞鏈?zhǔn)剿季S推理過程中所需的“思維連續(xù)性”。


此外,研究人員還驗證了一個在工程實踐中尤為關(guān)鍵但常被忽視的問題:在完成長上下文微調(diào)之后,模型是否仍能夠勝任常規(guī)短序列任務(wù)。在 MMLU、CEval、HumanEval 等評測中,InfLLM-V2 切回 dense 模式后依然保持了與 Full Attention 相當(dāng)?shù)男阅?,?NSA 則出現(xiàn)了明顯退化。這一結(jié)果從工程角度表明,InfLLM-V2 不會在適配長上下文能力的過程中破壞模型原有的通用能力。


最后,針對第三個問題,研究團隊不僅評估了 attention kernel 層面的理論加速效果,還在完整推理流程中測量了 prefilling(TTFT)和 decoding(TPOT)的端到端效率。

在可見 token 數(shù)為 6k(|I|=96)的設(shè)置下,InfLLM-V2 實現(xiàn)了約 2.1× 的 prefilling 加速和 2.3× 的 decoding 加速,而且這一結(jié)果是在前饋網(wǎng)絡(luò)(FFN)部分完全未進行優(yōu)化的前提下獲得的,進一步說明該稀疏注意力設(shè)計在真實推理場景中具有切實可落地的加速價值。

02
從結(jié)構(gòu)選擇到系統(tǒng)優(yōu)化

結(jié)果之外,這項研究的實驗實際上回答了一個更根本的問題:為什么 InfLLM-V2 的實驗結(jié)果并非“偶然跑出來的”,而是其設(shè)計邏輯在完整訓(xùn)練流程中被系統(tǒng)性驗證的必然結(jié)果。

研究團隊首先指出,現(xiàn)實世界中幾乎所有大語言模型都遵循“短序列預(yù)訓(xùn)練、長序列微調(diào)”的通行范式,因此,任何稀疏注意力方案如果在這一過程中大幅改變參數(shù)結(jié)構(gòu)、調(diào)整 attention 的輸出形式,都會直接損傷模型在短序列階段已經(jīng)學(xué)到的表示能力。

基于這一現(xiàn)實約束,研究人員明確設(shè)定了 InfLLM-V2 的核心實驗前提:在從 dense attention 過渡到 sparse attention 的過程中,必須保證已有 dense attention 的表達(dá)能力不被破壞。

在具體訓(xùn)練流程上,研究團隊首先采用完全標(biāo)準(zhǔn)的 Transformer 架構(gòu)對模型進行短序列預(yù)訓(xùn)練,模型規(guī)模為 8B 參數(shù),使用 GQA 結(jié)構(gòu),序列長度為 4k。這一階段未引入任何 InfLLM-V2 相關(guān)的稀疏機制,確保模型能力完全建立在傳統(tǒng)全注意力的基礎(chǔ)之上。

隨后,在進入長上下文訓(xùn)練階段時,模型內(nèi)部僅發(fā)生了三項關(guān)鍵變化:當(dāng)序列長度超過預(yù)設(shè)閾值時,attention mask 由稠密形式切換為稀疏形式;Key 與 Value 的投影參數(shù)被完整復(fù)用,不引入新的參數(shù)分支;attention 的輸出形式始終保持為 single-output 結(jié)構(gòu),不使用 gating,也不存在多路 attention 輸出的聚合。

正是這種“最小結(jié)構(gòu)擾動”的切換方式,使 InfLLM-V2 能夠在適配長上下文的同時,最大限度保留原有模型能力,這也構(gòu)成了其與 NSA 等可訓(xùn)練稀疏注意力方法的本質(zhì)差異。

相關(guān)實驗進一步驗證了一個具有反直覺意味的結(jié)論:可訓(xùn)練的稀疏 attention 并不必然更適合短到長的遷移訓(xùn)練。研究人員的分析表明,NSA 在該設(shè)定下的性能問題并非源自稀疏機制本身,而是由于其引入了三套 Key–Value 投影、多路 attention 輸出以及基于 gating 的結(jié)果聚合結(jié)構(gòu)。


這些額外模塊在短序列階段不僅帶來冗余計算開銷,還會顯著改變注意力分布形態(tài),從而對模型已學(xué)到的表示造成干擾。在實驗結(jié)果中,這一問題具體表現(xiàn)為訓(xùn)練 loss 曲線出現(xiàn)明顯震蕩、長序列困惑度(LongPPL)顯著升高,以及長鏈?zhǔn)酵评砣蝿?wù)性能的系統(tǒng)性下降。

在工程實現(xiàn)層面,研究團隊還通過進一步的消融分析定位了 InfLLM-V2 的主要性能瓶頸,發(fā)現(xiàn)其集中在 block selection 階段,尤其是 compression attention 的計算以及 attention score 的顯式物化過程。針對這一問題,研究人員在實驗中引入了 head-group fusion 和 LSE Approximation 等優(yōu)化策略。

實驗結(jié)果表明,這些改進在幾乎不影響模型性能的前提下,可以將 block selection 的計算時間降低約 20–30%,從而為后續(xù)端到端推理加速實驗中觀察到的顯著性能提升奠定了關(guān)鍵基礎(chǔ)。


03
可「熱升級」的長上下文方案

從研究意義的角度來看,這項研究對“長上下文大語言模型”這一方向給出了具有方法論價值的啟示。

研究團隊明確指出,稀疏注意力機制未來的發(fā)展重點并不在于設(shè)計全新的注意力結(jié)構(gòu),而在于如何在不破壞既有 dense attention 結(jié)構(gòu)的前提下實現(xiàn)高效的稀疏化,這一觀點在一定程度上改變了此前以“結(jié)構(gòu)創(chuàng)新”為主導(dǎo)的研究范式。

在工程實踐層面,InfLLM-V2 所具備的一系列特性恰好契合真實工業(yè)部署的核心需求,包括無需調(diào)整模型參數(shù)規(guī)模、無需維護多套模型版本、不會犧牲短序列任務(wù)性能,且不依賴重新進行大規(guī)模預(yù)訓(xùn)練。這意味著,一個已經(jīng)部署或訓(xùn)練完成的現(xiàn)有大語言模型,可以在最小代價下被“熱升級”為具備長上下文處理能力的模型。

在此基礎(chǔ)上,研究人員也為后續(xù)工作隱含地劃定了若干重要約束:首先,應(yīng)避免引入額外的 attention 分支,以免破壞原有結(jié)構(gòu)的一致性;其次,不應(yīng)采用與 dense attention 輸出形式不兼容的設(shè)計,否則將導(dǎo)致短到長遷移過程中的能力損失;最后,稀疏注意力的設(shè)計必須充分考慮底層計算實現(xiàn)與 kernel 特性,而不僅停留在概念層面的結(jié)構(gòu)優(yōu)雅性。

正是由于該研究將訓(xùn)練范式、模型結(jié)構(gòu)設(shè)計以及 CUDA 級實現(xiàn)細(xì)節(jié)進行了統(tǒng)一考量,并系統(tǒng)性地解釋了以往稀疏注意力方法在真實訓(xùn)練與推理流程中失敗的原因,才使其不僅停留在方法層面的提出,而能夠進一步支撐實際模型的訓(xùn)練與落地應(yīng)用,這也是研究團隊能夠基于該框架直接產(chǎn)出 MiniCPM-4.1 等模型的重要原因。

04
InfLLM-V2 主要作者

趙威霖,他是清華大學(xué)計算機科學(xué)與技術(shù)系自然語言處理實驗室(THUNLP)的博士研究生,研究方向聚焦于高效大語言模型。

他的研究主要圍繞模型推理與訓(xùn)練加速展開,關(guān)注點并非單純引入新的模型結(jié)構(gòu),而是如何在不破壞標(biāo)準(zhǔn) Transformer 表達(dá)能力與既有模型性能的前提下,實現(xiàn)對各類場景的有效適配與工程級加速。

除學(xué)術(shù)研究外,他還長期參與 OpenBMB、MiniCPM 等開源項目,在高性能 attention kernel、推理優(yōu)化與系統(tǒng)實現(xiàn)方面承擔(dān)關(guān)鍵工程工作,其研究成果發(fā)表于 ICLR、ACL、EMNLP 等國際主流會議。


參考鏈接:https://weilin-zhao.com

劉知遠(yuǎn),他是清華大學(xué)計算機科學(xué)與技術(shù)系教授、博士生導(dǎo)師,兼任中國中文信息學(xué)會理事、社會媒體處理專委會副主任等學(xué)術(shù)職務(wù)。

劉知遠(yuǎn)分別于 2006 年、 2011 年于清華大學(xué)計算機科學(xué)與技術(shù)系獲得學(xué)士、博士學(xué)位,并在清華大學(xué)開展博士后研究,后留校任教。其主要研究方向包括大模型技術(shù)、自然語言處理、知識圖譜與語義計算以及社會計算等核心領(lǐng)域。

劉知遠(yuǎn)在國際主流學(xué)術(shù)會議和期刊(如Nature Machine Intelligence、ACL、EMNLP、IJCAI 和 AAAI)上發(fā)表了 200 余篇論文,其 Google Scholar 引用量超過7萬次,反映出廣泛的學(xué)術(shù)影響力。

他在多項國家級科研項目中擔(dān)任負(fù)責(zé)人或主要參與者,曾獲教育部自然科學(xué)一等獎、中國中文信息學(xué)會錢偉長中文信息處理科學(xué)技術(shù)獎一等獎、世界互聯(lián)網(wǎng)領(lǐng)先科技成果獎、北京市青年教學(xué)名師獎等多項科研獎勵,并入選包括國家青年人才計劃、Elsevier 中國高被引學(xué)者、《麻省理工科技評論》中國區(qū)“35 歲以下科技創(chuàng)新 35 人榜單”及中國科協(xié)青年人才托舉工程等人才項目。


參考地址:https://nlp.csai.tsinghua.edu.cn/~lzy/zh.html

韓旭,他是清華大學(xué)計算機科學(xué)與技術(shù)系助理研究員,也是大模型開源社區(qū) OpenBMB 的核心發(fā)起人與長期負(fù)責(zé)人之一。

韓旭長期從事大模型技術(shù)、自然語言處理、知識工程等方面的研究,部分研究也涉及并行計算、異構(gòu)系統(tǒng)優(yōu)化等方向,在國際頂級學(xué)術(shù)會議及期刊發(fā)表論文數(shù)十篇,Google Scholar 他引 1.6 萬余次,曾獲教育部自然科學(xué)一等獎、世界互聯(lián)網(wǎng)大會領(lǐng)先科技獎,并入選中國計算機學(xué)會(CCF)優(yōu)博激勵計劃、清華優(yōu)秀博士后、《麻省理工科技評論》中國區(qū)“35 歲以下科技創(chuàng)新 35 人榜單”、及博士后創(chuàng)新人才支持計劃。


參考鏈接:https://www.cs.tsinghua.edu.cn/info/1114/6422.htm

肖朝軍,他是清華大學(xué)計算機系博士后,主要研究方向為高效大模型架構(gòu),在Nature Machine Intelligence、ICML、NeurIPS、ICLR、ACL等國際頂級會議及期刊發(fā)表論文多篇,曾獲錢偉長中文信息處理科學(xué)技術(shù)獎一等獎,博士后創(chuàng)新人才支持計劃,清華大學(xué)水木學(xué)者,清華大學(xué)優(yōu)秀博士論文等榮譽。


參考鏈接:https://xcjthu.github.io/

未經(jīng)「AI科技評論」授權(quán),嚴(yán)禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉(zhuǎn)載!

公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標(biāo)注來源并插入本公眾號名片。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
90后常德小伙歷時8天從伊朗回到湖南:此前赴死的心都有了,和平真好

90后常德小伙歷時8天從伊朗回到湖南:此前赴死的心都有了,和平真好

瀟湘晨報
2026-03-10 19:14:12
伊朗女足抵達(dá)機場!球員被困車內(nèi)+發(fā)出求救信號 家人警告:別回來

伊朗女足抵達(dá)機場!球員被困車內(nèi)+發(fā)出求救信號 家人警告:別回來

念洲
2026-03-10 19:45:58
新款奧迪A6L預(yù)售價公布:32.3萬元起

新款奧迪A6L預(yù)售價公布:32.3萬元起

界面新聞
2026-03-10 15:38:51
2026年清明將至,這5類人切記別上墳,老祖宗的忠告別當(dāng)耳旁風(fēng)

2026年清明將至,這5類人切記別上墳,老祖宗的忠告別當(dāng)耳旁風(fēng)

老特有話說
2026-03-08 15:30:41
曝伊朗女足已正式登機離開澳洲:多人落淚+反抗未果 有2人成功留下

曝伊朗女足已正式登機離開澳洲:多人落淚+反抗未果 有2人成功留下

風(fēng)過鄉(xiāng)
2026-03-10 21:14:19
江蘇:“巨無霸”高鐵站破土而出,投資152億震撼來襲。...

江蘇:“巨無霸”高鐵站破土而出,投資152億震撼來襲。...

科學(xué)發(fā)掘
2026-03-10 11:12:41
1930年,37歲白崇禧和副官未婚妻生下長子,妻子直接殺了過來

1930年,37歲白崇禧和副官未婚妻生下長子,妻子直接殺了過來

史之銘
2026-03-10 17:55:32
金與正發(fā)出警告:后果可怕,不堪設(shè)想!

金與正發(fā)出警告:后果可怕,不堪設(shè)想!

IN朝鮮
2026-03-10 16:38:48
揪心!曝伊朗女足球員被強行拖上車:淚流滿面去機場 大巴車內(nèi)求救

揪心!曝伊朗女足球員被強行拖上車:淚流滿面去機場 大巴車內(nèi)求救

風(fēng)過鄉(xiāng)
2026-03-10 21:00:08
打亂套了!俄羅斯公開支持伊朗,烏克蘭軍隊將赴中東協(xié)助美以作戰(zhàn)

打亂套了!俄羅斯公開支持伊朗,烏克蘭軍隊將赴中東協(xié)助美以作戰(zhàn)

史政先鋒
2026-03-09 19:30:53
第十日中東戰(zhàn)況:第8名美軍陣亡,伊朗最厲害武器竟不是導(dǎo)彈

第十日中東戰(zhàn)況:第8名美軍陣亡,伊朗最厲害武器竟不是導(dǎo)彈

裝甲鏟史官
2026-03-10 14:12:51
毛主席:晚年重用了這3個人物,從此徹底改寫了中國未來命運

毛主席:晚年重用了這3個人物,從此徹底改寫了中國未來命運

優(yōu)趣紀(jì)史記
2026-03-10 11:15:34
陳皮加它一起煮,倒頭就睡還疏肝寧神,我靠這招睡飽覺氣色好

陳皮加它一起煮,倒頭就睡還疏肝寧神,我靠這招睡飽覺氣色好

江江食研社
2026-03-10 14:13:03
李大齊是最懂周迅美的人,他給周迅做的造型將周迅的美發(fā)揮到極致

李大齊是最懂周迅美的人,他給周迅做的造型將周迅的美發(fā)揮到極致

上官晚安
2026-03-10 06:04:00
隨著印度1-3,越南0-4,中國女足四分之一決賽對手正式誕生

隨著印度1-3,越南0-4,中國女足四分之一決賽對手正式誕生

側(cè)身凌空斬
2026-03-10 19:01:07
行程有變,特朗普訪華規(guī)格縮水,中方對美說不,美國先遣隊已離京

行程有變,特朗普訪華規(guī)格縮水,中方對美說不,美國先遣隊已離京

科普100克克
2026-03-10 16:14:17
「俠客島」美國打伊朗,歐洲為啥“不跟”?

「俠客島」美國打伊朗,歐洲為啥“不跟”?

海外網(wǎng)
2026-03-10 19:32:05
別盯著比亞迪了,干掉蔚來換電的大概率是寧德時代

別盯著比亞迪了,干掉蔚來換電的大概率是寧德時代

鈦媒體APP
2026-03-10 17:22:25
伊朗提出?;鹗滓獥l件 伊外長稱新任最高領(lǐng)袖不會與美談判

伊朗提出?;鹗滓獥l件 伊外長稱新任最高領(lǐng)袖不會與美談判

上游新聞
2026-03-10 13:40:14
中國女足或直通世界杯!八強戰(zhàn)對陣中國臺北,26戰(zhàn)全勝僅丟2球

中國女足或直通世界杯!八強戰(zhàn)對陣中國臺北,26戰(zhàn)全勝僅丟2球

奧拜爾
2026-03-10 19:03:04
2026-03-10 23:12:49
AI科技評論 incentive-icons
AI科技評論
點評學(xué)術(shù),服務(wù)AI
7111文章數(shù) 20739關(guān)注度
往期回顧 全部

科技要聞

全民"養(yǎng)蝦"背后:大廠集體下場瘋狂賣Token

頭條要聞

小伙輾轉(zhuǎn)8天回國:后悔賺錢賺到伊朗 赴死的心都有了

頭條要聞

小伙輾轉(zhuǎn)8天回國:后悔賺錢賺到伊朗 赴死的心都有了

體育要聞

加蘭沒那么差,但鱸魚會用嗎?

娛樂要聞

《逐玉》注水風(fēng)波升級!315評論區(qū)淪陷

財經(jīng)要聞

“龍蝦補貼”密集出爐 最高1000萬!

汽車要聞

MG4有SUV衍生 上汽乘用車多款新車規(guī)劃曝光

態(tài)度原創(chuàng)

時尚
藝術(shù)
家居
健康
教育

看來看去這些才是適合普通人的穿搭!不花哨、不繁瑣,提氣質(zhì)

藝術(shù)要聞

30000畝杏花開了,新疆的春天這么美!

家居要聞

自然肌理 溫度質(zhì)感婚房

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

教育要聞

近10年,全國普通高校畢業(yè)生規(guī)模連年增長!

無障礙瀏覽 進入關(guān)懷版