国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

EMNLP 2025 | 動(dòng)態(tài)壓縮CoT推理新方法LightThinker

0
分享至

隨著 AI 技術(shù)的飛速發(fā)展,從「快思考」到 「慢思考」,大語言模型(LLMs)在處理復(fù)雜推理任務(wù)上展現(xiàn)出驚人的能力。無論是我們熟知的思維鏈(CoT),還是更復(fù)雜的深度思考模式(Thinking),都讓 AI 的回答日益精準(zhǔn)、可靠。

然而,這種性能的提升并非沒有代價(jià)。模型在推理過程中會產(chǎn)生大量的中間步驟和文本(tokens),這不僅極大地拖慢了計(jì)算速度,還對內(nèi)存和計(jì)算資源造成了巨大的壓力。簡單來說,就是「想得越多,算得越慢,耗得越多」。

為了解決這一難題,研究者們從人類的認(rèn)知過程中汲取靈感。想象一下人類在解決一個(gè)復(fù)雜數(shù)學(xué)題時(shí)的情景:我們通常會在草稿紙上寫下關(guān)鍵的計(jì)算步驟(如下圖 a 中的黃色高亮部分),而將一些輔助性的思考過程(非高亮部分)放在腦中。


論文題目: LightThinker: Thinking Step-by-Step Compression 論文鏈接: https://arxiv.org/abs/2502.15589 代碼鏈接: https://github.com/zjunlp/LightThinker


圖 1:(a) 展示了一個(gè)典型的思維鏈推理過程,黃色部分為關(guān)鍵步驟。(b) 對比了傳統(tǒng)方案 Vanilla 與 LightThinker 的推理流程。

本文中,來自浙江大學(xué)、螞蟻集團(tuán)等機(jī)構(gòu)的研究者提出了 LightThinker,它模仿了這一高效的思考模式。它訓(xùn)練 LLM 在推理過程中動(dòng)態(tài)地將冗長的中間思考步驟壓縮成緊湊的表示(gist tokens /cache tokens),然后「扔掉」原始的、繁瑣的推理鏈,僅保留核心摘要以繼續(xù)下一步的思考。 這樣一來,存放在上下文窗口中的 tokens 數(shù)量被大幅削減,從而顯著降低了內(nèi)存占用和計(jì)算成本。

一、LightThinker 概覽


LightThinker 通過訓(xùn)練的方式讓模型具備這種能力。這涉及到兩個(gè)關(guān)鍵問題:「何時(shí)壓縮?」和「如何壓縮?」。整個(gè)過程可以概括為以下三個(gè)關(guān)鍵步驟:

第一步:數(shù)據(jù)重構(gòu) —— 在思考流程中植入「壓縮指令」

LightThinker 的第一步就是改造訓(xùn)練數(shù)據(jù),讓 LLM 明白「壓縮」這個(gè)動(dòng)作的存在和時(shí)機(jī) 。具體操作是:

  1. 步驟劃分:首先,將模型原本冗長的完整回答 Y,按照語義或段落(即一個(gè)完整的「想法」)切分成若干個(gè)思維步驟 S1, S2, S3, ...。

  2. 插入特殊指令符:在這些思維步驟之間,插入一組特殊的「指令令牌」4。這組指令符主要包含兩個(gè)部分:

  • 緩存令牌 (Cache Tokens, C):這是一組特殊的、用于存儲壓縮后信息的「摘要令牌」。它的作用就像是為即將產(chǎn)生的「思想摘要」預(yù)留的空白便簽。

  • 輸出令牌 (Output Token, [o]):這是一個(gè)強(qiáng)制性的輸出信號,它的作用是告訴模型:「好了,摘要寫完了,現(xiàn)在請基于這份摘要繼續(xù)你下一步的思考」 。

經(jīng)過這樣的改造,原本一條完整的思考鏈,就變成了一個(gè)「思考步驟 1 S1 →進(jìn)行壓縮→ 繼續(xù)思考步驟 S2 →再次壓縮→ ...」的全新格式。這等于是在模型的學(xué)習(xí)材料中明確地標(biāo)注出了「何時(shí)」需要進(jìn)行壓縮。

注意,研究者在具體實(shí)現(xiàn)中,采用換行符作為思維步驟的劃分,此處不存在任何數(shù)據(jù)精心構(gòu)造的過程。

第二步:注意力改造 —— 學(xué)會壓縮與理解壓縮的內(nèi)容

教會了模型「何時(shí)」壓縮,下一步就是最關(guān)鍵的如何壓縮。這主要通過一種名為 「Thought-based Attention Mask」的技術(shù)來實(shí)現(xiàn),如圖 2 (b) 所示。精確地控制著模型在思考時(shí) “能看什么” 和 “不能看什么” 。

這個(gè)過程分為兩個(gè)階段:

  • 壓縮階段(生成思維摘要):當(dāng)模型需要將思維步驟 Si 壓縮進(jìn)緩存令牌 C 時(shí),注意力掩碼會強(qiáng)制這些 C 令牌只能「看到」三個(gè)東西:

    • 最初的問題 X;

    • 先前已經(jīng)壓縮好的歷史摘要;

    • 當(dāng)前正在處理的思維步驟 Si。

其他所有原始的、未壓縮的思維步驟都會被「遮蔽」。這迫使模型必須將 Si 中的所有關(guān)鍵信息高度濃縮并存儲到 C 中 。

  • 生成階段(基于摘要生成思維):當(dāng)思維步驟 Si 被成功壓縮進(jìn) C 之后,更關(guān)鍵的一步來了。在生成下一個(gè)思緒片段 S (i+1) 時(shí),注意力掩碼會徹底「遮蔽」掉原始的思維步驟 Si。此時(shí),模型只能「看到」最初的問題 X 和包括剛剛生成的摘要在內(nèi)的所有歷史摘要 。

通過這種方式,模型被迫學(xué)會僅依賴緊湊的「思想摘要」來進(jìn)行連貫的、層層遞進(jìn)的推理,而不是依賴越來越長的原始思考全文。

第三步:動(dòng)態(tài)推理 ——「即用即棄」的高效循環(huán)

經(jīng)過以上兩個(gè)步驟的訓(xùn)練,LightThinker 模型在實(shí)際推理時(shí),就會形成一種高效的動(dòng)態(tài)循環(huán),如圖 1 (b) 和圖 2 (c) 所示,清晰地展示了「生成→壓縮→拋棄」的動(dòng)態(tài)循環(huán)過程。下面以圖 1 (b) 為例進(jìn)行分析:

  1. 模型接收問題,生成第一段思考(Thought 1)。

  2. 觸發(fā)壓縮,將 Thought 1 中的核心信息壓縮成緊湊的摘要(CT1)。

  3. 拋棄原文,將冗長的 Thought 1 從上下文中丟棄。

  4. 模型基于問題和摘要(CT1),生成第二段思考(Thought 2)。

  5. 再次壓縮,將 Thought 2 壓縮為摘要(CT2),并丟棄 Thought 2 原文。

  6. 如此循環(huán),直到問題解決。

通過這種「即用即棄」的機(jī)制,LightThinker 確保了模型的上下文窗口始終保持在一個(gè)非常小的尺寸,從而解決了因上下文過長導(dǎo)致的內(nèi)存爆炸和計(jì)算緩慢問題,實(shí)現(xiàn)了效率與性能的完美平衡。

圖 3 展示了不同方法在推理過程中上下文長度的變化,其中曲線和坐標(biāo)軸圍城的面積為我們定義的新指標(biāo) Dependency,其意義生成 token 時(shí)需要關(guān)注 token 的數(shù)量總和。


二、實(shí)驗(yàn)結(jié)果

研究者在四個(gè)數(shù)據(jù)集和兩個(gè)不同的模型上對 LightThinker 進(jìn)行了廣泛的測試,結(jié)果如表 1 所示。


表 1 主要實(shí)驗(yàn)結(jié)果。Acc 為準(zhǔn)確率,Time 為平均推理耗時(shí),Peak 為平均峰值 token 占用數(shù)量,Dep 為生成 token 時(shí)需要關(guān)注 token 的數(shù)量總和(如圖 3)所示。

結(jié)果表明,在 Qwen 系列模型上,與傳統(tǒng)模型(Vanilla)相比:

  • 峰值內(nèi)存使用減少 70%:LightThinker 極大地節(jié)約了寶貴的內(nèi)存資源。

  • 推理時(shí)間縮短 26%:在保證結(jié)果準(zhǔn)確性的前提下,思考速度得到了顯著提升。

  • 取得了準(zhǔn)確度和效率的平衡。

此外,在 Llama 上,也取得了準(zhǔn)確度和效率的平衡。

三、相關(guān)工作

當(dāng)前關(guān)于加速大語言模型(LLMs)推理過程的研究主要集中在四類方法:模型量化、輔助解碼、生成更少的 Token 和減少 KV 緩存。模型量化包括參數(shù)量化 [1-2] 和 KV 緩存量化 [3-4],輔助解碼主要包括投機(jī)采樣,本節(jié)將重點(diǎn)關(guān)注后兩類方法。

需要注意的是,生成長文本和理解長文本代表著不同的應(yīng)用場景,因此,專門針對長文本生成階段的加速方法(例如,預(yù)填充階段加速技術(shù)如 AutoCompressor [5]、ICAE [6]、LLMLingua [7]、Activation Beacon [8]、SnapKV [9] 和 PyramidKV [10])不在此處討論。以下是后兩類方法的詳細(xì)概述。

生成更少的 Token

這一類別可以根據(jù)推理過程中使用的 token 數(shù)量和類型進(jìn)一步分為三種策略:

  • 離散 Token 減少通過提示工程 Prompt [11-13]、指令微調(diào) [14-15] 或強(qiáng)化學(xué)習(xí) [16-17] 等技術(shù)來引導(dǎo) LLM 在推理過程中使用更少的離散 token。例如,TALE [11] 提示 LLM 在預(yù)定義的 token 預(yù)算內(nèi)完成任務(wù)。Arora 和 Zanette [16] 構(gòu)建特定數(shù)據(jù)集并采用強(qiáng)化學(xué)習(xí)獎(jiǎng)勵(lì)機(jī)制來鼓勵(lì)模型生成簡潔準(zhǔn)確的輸出,從而減少 token 使用量。

  • 連續(xù) Token 替換這些方法 [18-19] 探索使用連續(xù)空間 token 代替?zhèn)鹘y(tǒng)的離散詞匯 token。一個(gè)代表性例子是 CoConut [18],它利用課程學(xué)習(xí)來訓(xùn)練 LLM 使用連續(xù) token 進(jìn)行推理。

  • 無 Token 使用通過在模型層之間內(nèi)化推理過程,在推理過程中直接生成最終答案而不需要中間 token [20-21]。

這三種策略都是在模型訓(xùn)練后實(shí)施的,推理過程中不需要額外干預(yù)。從技術(shù)上講,這些方法的加速效果依次遞增,但代價(jià)是 LLM 的泛化性能逐漸下降。此外,第一種策略并不能顯著減少 GPU 內(nèi)存使用。

減少 KV 緩存

這一類別可以分為兩種策略類型:基于剪枝的離散空間 KV 緩存選擇和基于合并的連續(xù)空間 KV 緩存壓縮。

  • 基于剪枝的策略設(shè)計(jì)特定的淘汰策略 [22-25] 在推理過程中保留重要的 token。例如,StreamingLLM [23] 認(rèn)為初始的 sink token 和最近的 token 是重要的;H2O [22] 關(guān)注具有高歷史注意力分?jǐn)?shù)的 token;SepLLM [24] 強(qiáng)調(diào)對應(yīng)于標(biāo)點(diǎn)符號的 token 是重要的。

  • 基于合并的策略引入錨點(diǎn) token,訓(xùn)練 LLM 將歷史重要信息壓縮到這些 token 中,從而實(shí)現(xiàn) KV 緩存合并 [26]。

這兩種策略都需要在推理過程中進(jìn)行干預(yù)。關(guān)鍵區(qū)別在于:第一種策略是無需訓(xùn)練的,但對每個(gè)生成的 token 都要應(yīng)用淘汰策略;而第二種策略是基于訓(xùn)練的方法,允許 LLM 自主決定何時(shí)應(yīng)用淘汰策略。

四、局限性

受限于自身的數(shù)據(jù)重構(gòu)方案(目前分割思維步驟是依賴規(guī)則,而不是基于語義)和訓(xùn)練數(shù)據(jù)(約 16K 訓(xùn)練數(shù)據(jù)),本文方法在數(shù)學(xué)相關(guān)的任務(wù)上表現(xiàn)并不出色。

如下圖所示,展示了 LightThinker 在 GSM8K 上的一個(gè) Bad Case。研究者觀察到,盡管 LLM 在思考過程中得出了正確答案(見上圖中的 Model's Thoughts 字段),但在最終輸出中卻出現(xiàn)了錯(cuò)誤(見圖中的 Model's Solution 字段)。

具體來說,在 Model's Solution 字段的第三句話中,第一次出現(xiàn)的「4000」是錯(cuò)誤的。這表明在第二次壓縮步驟中發(fā)生了信息丟失(理論上,「8000」、「4000」和「24000」都應(yīng)該被壓縮,但 LLM 只壓縮了「4000」和「24000」),導(dǎo)致后續(xù)的推理錯(cuò)誤。這類錯(cuò)誤在 GSM8K 數(shù)據(jù)集中頻繁出現(xiàn),表明當(dāng)前的壓縮方法對數(shù)值的敏感度還不夠。


參考文獻(xiàn)

[1] Lin J, Tang J, Tang H, et al. AWQ: Activation-aware weight quantization for on-device LLM compression and acceleration. MLSys 2024.

[2] Dettmers T, Lewis M, Belkada Y, et al. GPT3.INT8 (): 8-bit matrix multiplication for transformers at scale. NeurIPS 2022.

[3] Liu Z, Yuan J, Jin H, et al. KIVI: A tuning-free asymmetric 2bit quantization for KV cache. ICML 2024b.

[4] Hooper C, Kim S, Mohammadzadeh H, et al. KVQuant: Towards 10 million context length LLM inference with KV cache quantization. NeurIPS 2024.

[5] Chevalier A, Wettig A, Ajith A, et al. Adapting language models to compress contexts. EMNLP 2023.

[6] Ge T, Hu J, Wang L, et al. In-context autoencoder for context compression in a large language model. ICLR 2024.

[7] Jiang H, Wu Q, Lin C, et al. LLMLingua: Compressing prompts for accelerated inference of large language models. EMNLP 2023.

[8] Zhang P, Liu Z, Xiao S, et al. Long context compression with activation beacon. arXiv:2401.03462, 2024b.

[9] Li Y, Huang Y, Yang B, et al. SnapKV: LLM knows what you are looking for before generation. NeurIPS 2024.

[10] Cai Z, Zhang Y, Gao B, et al. PyramidKV: Dynamic KV cache compression based on pyramidal information funneling. CoRR abs/2406.02069, 2024.

[11] Han T, Wang Z, Fang C, et al. Token-budget-aware LLM reasoning. CoRR abs/2412.18547, 2024.

[12] Ding M, Liu Z, Fu Z, et al. Break the chain: Large language models can be shortcut reasoners. CoRR abs/2406.06580, 2024.

[13] Nayab S, Rossolini G, Buttazzo G, et al. Concise thoughts: Impact of output length on LLM reasoning and cost. CoRR abs/2407.19825, 2024.

[14] Liu T, Guo Q, Hu X, et al. Can language models learn to skip steps? NeurIPS 2024a.

[15] Kang Y, Sun X, Chen L, et al. C3oT: Generating shorter chain-of-thought without compromising effectiveness. CoRR abs/2412.11664, 2024.

[16] Arora D, Zanette A. Training language models to reason efficiently. arXiv:2502.04463, 2025.

[17] Luo H, Shen L, He H, et al. O1-pruner: Length-harmonizing fine-tuning for o1-like reasoning pruning. arXiv:2501.12570, 2025.

[18] Hao S, Sukhbaatar S, Su D, et al. Training large language models to reason in a continuous latent space. CoRR abs/2412.06769, 2024.

[19] Cheng J, Van Durme B. Compressed chain of thought: Efficient reasoning through dense representations. CoRR abs/2412.13171, 2024.

[20] Deng Y, Choi Y, Shieber S. From explicit CoT to implicit CoT: Learning to internalize CoT step by step. CoRR abs/2405.14838, 2024.

[21] Deng Y, Prasad K, Fernandez R, et al. Implicit chain of thought reasoning via knowledge distillation. CoRR abs/2311.01460, 2023.

[22] Zhang Z, Sheng Y, Zhou T, et al. H2O: Heavy-hitter oracle for efficient generative inference of large language models. NeurIPS 2023.

[23] Xiao G, Tian Y, Chen B, et al. Efficient streaming language models with attention sinks. ICLR 2024.

[24] Chen G, Shi H, Li J, et al. SepLLM: Accelerate large language models by compressing one segment into one separator. CoRR abs/2412.12094, 2024.

[25] Wu J, Wang Z, Zhang L, et al. SCOPE: Optimizing key-value cache compression in long-context generation. CoRR abs/2412.13649, 2024a.

[26] Pang J, Ye F, Wong D, et al. Anchor-based large language models. ACL 2024

作者:張錦添 來源:公眾號【知識引擎實(shí)驗(yàn)室-ZJU】

llustration From IconScout By IconScout Store

-The End-

本周上新!

掃碼觀看!

“AI技術(shù)流”原創(chuàng)投稿計(jì)劃

TechBeat是由將門創(chuàng)投建立的AI學(xué)習(xí)社區(qū)(www.techbeat.net)。社區(qū)上線700+期talk視頻,3000+篇技術(shù)干貨文章,方向覆蓋CV/NLP/ML/Robotis等;每月定期舉辦頂會及其他線上交流活動(dòng),不定期舉辦技術(shù)人線下聚會交流活動(dòng)。我們正在努力成為AI人才喜愛的高質(zhì)量、知識型交流平臺,希望為AI人才打造更專業(yè)的服務(wù)和體驗(yàn),加速并陪伴其成長。

投稿內(nèi)容

// 最新技術(shù)解讀/系統(tǒng)性知識分享 //

// 前沿資訊解說/心得經(jīng)歷講述 //

投稿須知

稿件需要為原創(chuàng)文章,并標(biāo)明作者信息。

我們會選擇部分在深度技術(shù)解析及科研心得方向,對用戶啟發(fā)更大的文章,做原創(chuàng)性內(nèi)容獎(jiǎng)勵(lì)

投稿方式

發(fā)送郵件到

michellechang@thejiangmen.com

或添加工作人員微信(michelle333_)投稿,溝通投稿詳情

關(guān)于我“門”

將門是一家以專注于數(shù)智核心科技領(lǐng)域新型創(chuàng)投機(jī)構(gòu),也是北京市標(biāo)桿型孵化器。 公司致力于通過連接技術(shù)與商業(yè),發(fā)掘和培育具有全球影響力的科技創(chuàng)新企業(yè),推動(dòng)企業(yè)創(chuàng)新發(fā)展與產(chǎn)業(yè)升級。

將門成立于2015年底,創(chuàng)始團(tuán)隊(duì)由微軟創(chuàng)投在中國的創(chuàng)始團(tuán)隊(duì)原班人馬構(gòu)建而成,曾為微軟優(yōu)選和深度孵化了126家創(chuàng)新的技術(shù)型創(chuàng)業(yè)公司。

如果您是技術(shù)領(lǐng)域的初創(chuàng)企業(yè),不僅想獲得投資,還希望獲得一系列持續(xù)性、有價(jià)值的投后服務(wù),歡迎發(fā)送或者推薦項(xiàng)目給我“門”:

bp@thejiangmen.com


點(diǎn)擊右上角,把文章分享到朋友圈

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
浙江全省正在嚴(yán)查!“不要購買,更不要駕駛”

浙江全省正在嚴(yán)查!“不要購買,更不要駕駛”

極目新聞
2026-03-14 21:37:21
特朗普動(dòng)起歪腦筋,稱美軍在伊朗打仗,給中國送了一份“大禮”

特朗普動(dòng)起歪腦筋,稱美軍在伊朗打仗,給中國送了一份“大禮”

空天力量
2026-03-14 19:09:49
隨著廣廈加時(shí)輸3分!山東贏9分!上??駝?0分,CBA最新排名大變

隨著廣廈加時(shí)輸3分!山東贏9分!上海狂勝50分,CBA最新排名大變

老吳說體育
2026-03-14 22:14:20
第6輪會談美方表態(tài),魯比奧接受邀請將隨特朗普訪華

第6輪會談美方表態(tài),魯比奧接受邀請將隨特朗普訪華

似水流年忘我
2026-03-14 16:25:05
隨著中國女籃86-76勝南蘇丹,世預(yù)賽最新形勢:4隊(duì)爭3個(gè)出線名額

隨著中國女籃86-76勝南蘇丹,世預(yù)賽最新形勢:4隊(duì)爭3個(gè)出線名額

小火箭愛體育
2026-03-14 21:32:52
巴拿馬急了:中遠(yuǎn)海運(yùn),恢復(fù)運(yùn)營吧

巴拿馬急了:中遠(yuǎn)海運(yùn),恢復(fù)運(yùn)營吧

觀察者網(wǎng)
2026-03-14 09:24:05
2025霧霾最嚴(yán)重的十個(gè)城市

2025霧霾最嚴(yán)重的十個(gè)城市

電工知庫
2026-03-14 15:04:40
農(nóng)民自愿永久退出承包地:2026最新補(bǔ)償標(biāo)準(zhǔn)與辦理流程全說明

農(nóng)民自愿永久退出承包地:2026最新補(bǔ)償標(biāo)準(zhǔn)與辦理流程全說明

現(xiàn)代小青青慕慕
2026-03-14 12:56:29
今年的315,草莓第一個(gè)翻車,重金屬農(nóng)殘超標(biāo),敵敵畏隨便用

今年的315,草莓第一個(gè)翻車,重金屬農(nóng)殘超標(biāo),敵敵畏隨便用

Mr王的飯后茶
2026-03-14 13:15:36
“戰(zhàn)斧”首次交付日本,中方正告!

“戰(zhàn)斧”首次交付日本,中方正告!

環(huán)球時(shí)報(bào)國際
2026-03-14 17:02:11
大爭議!F1外媒官號曬合照“裁掉”頒獎(jiǎng)嘉賓吳艷妮 做法太low

大爭議!F1外媒官號曬合照“裁掉”頒獎(jiǎng)嘉賓吳艷妮 做法太low

醉臥浮生
2026-03-14 15:45:44
淚目了!伊朗向死而生,讓美以最絕望的出現(xiàn)了!

淚目了!伊朗向死而生,讓美以最絕望的出現(xiàn)了!

大嘴說天下
2026-03-14 19:36:56
特朗普越過紅線?美軍空襲伊朗關(guān)鍵而脆弱的“石油心臟” 專家:奪島容易控島難

特朗普越過紅線?美軍空襲伊朗關(guān)鍵而脆弱的“石油心臟” 專家:奪島容易控島難

紅星新聞
2026-03-14 10:18:18
“伊朗想放部分油輪過海峽,前提是石油以人民幣結(jié)算”

“伊朗想放部分油輪過海峽,前提是石油以人民幣結(jié)算”

觀察者網(wǎng)
2026-03-14 08:19:04
我國臺灣問題不談判不退讓不惜一戰(zhàn),哪怕犧牲億人毀城百座城池

我國臺灣問題不談判不退讓不惜一戰(zhàn),哪怕犧牲億人毀城百座城池

瀚霖學(xué)史
2026-03-14 08:58:49
突發(fā):霍爾木茲海峽前哨戰(zhàn)打響!

突發(fā):霍爾木茲海峽前哨戰(zhàn)打響!

西樓飲月
2026-03-14 22:03:05
600年前城磚上出現(xiàn)“劉德華”?南京官方回應(yīng)

600年前城磚上出現(xiàn)“劉德華”?南京官方回應(yīng)

澎湃新聞
2026-03-14 20:02:09
1984年,張宗遜之子張又俠8個(gè)多小時(shí)拿下松毛嶺:預(yù)備隊(duì)還沒上呢

1984年,張宗遜之子張又俠8個(gè)多小時(shí)拿下松毛嶺:預(yù)備隊(duì)還沒上呢

歷史甄有趣
2026-03-13 12:45:14
泰州市監(jiān)委通報(bào),于浩被查

泰州市監(jiān)委通報(bào),于浩被查

上觀新聞
2026-03-14 19:41:03
字節(jié)辟謠「武漢全部被裁」:超2000人base武漢,將加大對湖北投入

字節(jié)辟謠「武漢全部被裁」:超2000人base武漢,將加大對湖北投入

鞭牛士
2026-03-14 12:04:14
2026-03-15 03:31:00
將門創(chuàng)投 incentive-icons
將門創(chuàng)投
加速及投資技術(shù)驅(qū)動(dòng)型初創(chuàng)企業(yè)
2310文章數(shù) 596關(guān)注度
往期回顧 全部

科技要聞

xAI創(chuàng)始伙伴只剩兩人!馬斯克“痛改前非”

頭條要聞

伊朗船只迫近林肯號航母 美軍連開數(shù)炮全打空

頭條要聞

伊朗船只迫近林肯號航母 美軍連開數(shù)炮全打空

體育要聞

NBA唯一巴西球員,增重20KG頂內(nèi)線

娛樂要聞

九成美曝田栩?qū)幵衅诔鲕?AI反轉(zhuǎn)引熱議

財(cái)經(jīng)要聞

3·15影子暗訪|神秘的“特供酒”

汽車要聞

吉利銀河M7技術(shù)首秀 實(shí)力重構(gòu)主流電混SUV

態(tài)度原創(chuàng)

健康
教育
游戲
時(shí)尚
藝術(shù)

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

教育要聞

去英國留學(xué)的核心意義,其實(shí)80%以上國內(nèi)家庭是不知道的!

FS社新作終于有新消息!NS2獨(dú)占 多人在線

伊姐周六熱推:電視劇《逐玉》;電視劇《江湖夜雨十年燈》......

藝術(shù)要聞

迪拜的房地產(chǎn)市場面臨嚴(yán)峻考驗(yàn)

無障礙瀏覽 進(jìn)入關(guān)懷版