国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請入駐

DeepSeek-V4核心公開?梁文鋒署名新論文發(fā)布,實(shí)習(xí)生挑大梁

0
分享至


智東西
作者 駿達(dá) 王涵
編輯 心緣

智東西1月13日報(bào)道,昨晚,DeepSeek又開源了,還發(fā)布一篇新論文。這次,他們提出了一種全新的“條件記憶”機(jī)制——Engram,旨在讓MoE模型在保持巨量參數(shù)的同時(shí),更高效地處理語言信息。

DeepSeek創(chuàng)始人兼CEO梁文鋒、北大王選計(jì)算機(jī)研究所的趙東巖和張輝帥教授都在論文中署名。


Engram架構(gòu)的核心優(yōu)勢在于以更低成本實(shí)現(xiàn)更優(yōu)性能。訓(xùn)練計(jì)算量較MoE減少18%的情況下,在32768個(gè)token的長上下文任務(wù)中,Engram在RULER基準(zhǔn)測試中反超同參數(shù)量MoE模型。

并且,其淺層部署的記憶模塊接管局部依賴與靜態(tài)知識(shí)存儲(chǔ),為注意力機(jī)制騰出容量以專注全局推理,1000億參數(shù)記憶表卸載后使H800推理吞吐量降幅不足3%。

DeepSeek還觀察到,增加記憶槽位數(shù)量能持續(xù)、穩(wěn)定地降低驗(yàn)證損失,這意味著Engram提供了一個(gè)可預(yù)測的Scaling新手段:增大記憶容量持續(xù)帶來收益,而無需增加計(jì)算量。

那這種效果究竟是如何實(shí)現(xiàn)的呢?如今的MoE模型雖然在計(jì)算層面做到了稀疏化,但是它處理信息的方式仍然很費(fèi)勁:有些老生常談的事實(shí)性內(nèi)容,比如常見的名字、公式或固定表達(dá),模型卻要重復(fù)計(jì)算,非常耗時(shí)間。

DeepSeek的做法是,把這些“固定知識(shí)”提前整理成一個(gè)可以快速查詢的表格,這樣就能把更多精力放在真正需要深度思考的任務(wù)上,比如復(fù)雜推理或者理解長段文本。

值得一提的是,論文的第一作者Xin Cheng(程信)目前在北京大學(xué)智能學(xué)院攻讀博士學(xué)位,主要研究大模型的高效參數(shù)化方法和機(jī)制。他同時(shí)也在DeepSeek工作,R1、V3的研究都參與了,很有可能是實(shí)習(xí)生。


在論文摘要中,DeepSeek提出,條件記憶(conditional memory)將成為下一代稀疏模型中不可或缺的建模原語。這或許意味著DeepSeek-V4有望整合條件記憶機(jī)制,實(shí)現(xiàn)知識(shí)高效檢索與推理能力的飛躍。

論文鏈接:

https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf

項(xiàng)目鏈接:

https://github.com/deepseek-ai/Engram

一、Transformer缺乏知識(shí)檢索機(jī)制,經(jīng)典-gram架構(gòu)提供啟發(fā)

在正式介紹新型記憶機(jī)制前,DeepSeek團(tuán)隊(duì)首先提出了一項(xiàng)重要的觀察。

稀疏性已經(jīng)成為了智能系統(tǒng)的核心設(shè)計(jì)原則,在大模型領(lǐng)域,其具體實(shí)現(xiàn)就是MoE(混合專家模型)。但是,現(xiàn)有的標(biāo)準(zhǔn)Transformer本質(zhì)上沒有真正的知識(shí)檢索機(jī)制,導(dǎo)致現(xiàn)有大模型不得不在早期層中通過昂貴計(jì)算來“重建”靜態(tài)知識(shí),浪費(fèi)了寶貴的模型深度。

因此,DeepSeek認(rèn)為有必須要提出第二個(gè)與條件計(jì)算互補(bǔ)的稀疏維度:條件記憶。條件記憶則依賴稀疏的查找操作,為固定知識(shí)檢索靜態(tài)嵌入表示,適合命名實(shí)體、固定表達(dá)等靜態(tài)且高度模式化的語言表示。

DeepSeek他們向經(jīng)典的-gram結(jié)構(gòu)引入了現(xiàn)代化的條件記憶模塊,包括分詞器壓縮、多頭哈希、上下文化門控以及多分支集成等,最終提出了Engram。

下圖是Engram的基本架構(gòu),通俗地說,Engram就是給Transformer加個(gè)外接記憶庫,并把當(dāng)前token附近的一小段內(nèi)容,用快速、省參數(shù)的方式,去一個(gè)超大的靜態(tài)記憶表里查到對應(yīng)內(nèi)容。


二、多管齊下打造新型記憶機(jī)制,天然支持參數(shù)存儲(chǔ)與計(jì)算資源解耦

這個(gè)記憶庫該如何具體實(shí)現(xiàn)呢?

首先,DeepSeek團(tuán)隊(duì)對分詞器(tokenizer)進(jìn)行了壓縮。普通的分詞器會(huì)把Apple、apple、APPLE這些單詞當(dāng)成完全不同的東西,但是對人來說其實(shí)差別不大。

Engram先把詞表清洗了一遍,全部轉(zhuǎn)小寫,Unicode規(guī)范化(NFKC)。最后,一個(gè)原本128k的詞表,實(shí)際只剩下77%,有23%的token ID被合并了。這讓N-gram記憶的密度明顯提升了。

不過,直接對所有-gram進(jìn)行建模是不可行的,參數(shù)會(huì)指數(shù)級增長。DeepSeek團(tuán)隊(duì)引入了多頭哈希記憶(Multi-Head Hashing),在固定參數(shù)預(yù)算下近似大規(guī)模-gram表,降低哈希碰撞引入的語義噪聲。

上述檢索機(jī)制提供的記憶是靜態(tài)的,缺乏上下文適應(yīng)性,易受歧義與沖突的影響,這一問題可通過上下文感知門控(Context-aware Gating)來解決。為進(jìn)一步擴(kuò)大感受野并增強(qiáng)非線性建模能力,模型還引入了一個(gè)深度可分離因果卷積。

DeepSeek團(tuán)隊(duì)采用多分支架構(gòu)作為默認(rèn)主干網(wǎng)絡(luò),而非標(biāo)準(zhǔn)的單流殘差連接(這是何愷明此前的研究成果)。多分支架構(gòu)把殘差流擴(kuò)展為M個(gè)并行分支,但共享記憶表和輸出映射。這樣設(shè)計(jì)的好處是,它可以一次性用矩陣乘法搞定多條分支的計(jì)算,GPU用得非常高效。

Engram的核心優(yōu)勢在于記憶檢索完全依賴輸入token,而非運(yùn)行時(shí)的隱藏狀態(tài)。這種確定性機(jī)制實(shí)現(xiàn)了參數(shù)存儲(chǔ)與計(jì)算資源的解耦,支持訓(xùn)練和推理階段采取專門的優(yōu)化策略:


▲Engram訓(xùn)練和推理階段可采用不同優(yōu)化策略

訓(xùn)練優(yōu)化:通過將超大嵌入表分片至多張GPU,利用All-to-All通信按需收集對應(yīng)行,使總記憶容量隨GPU數(shù)量線性擴(kuò)展。

推理優(yōu)化:由于可提前確定待查詢記憶,系統(tǒng)可從主機(jī)內(nèi)存異步預(yù)取,同時(shí)在前幾層計(jì)算期間隱藏通信延遲,實(shí)現(xiàn)預(yù)取與計(jì)算的重疊,避免GPU停頓。

硬件-算法協(xié)同設(shè)計(jì):Engram在模型中的放置位置需平衡建模性能與系統(tǒng)延遲。較早引入有助于局部模式重建,較深放置則延長延遲隱藏窗口,需兼顧二者優(yōu)化。

層次化存儲(chǔ):基于自然語言-gram的Zipf分布特性,可采用多級緩存策略,高頻嵌入存放于GPU HBM或主機(jī)DRAM,低頻嵌入置于SSD。這使Engram能擴(kuò)展至超大規(guī)模記憶,同時(shí)保持低延遲與高效率。

三、兩個(gè)模塊資源二八分成,互補(bǔ)性獲驗(yàn)證

接下來,DeepSeek團(tuán)隊(duì)研究了另一個(gè)關(guān)鍵問題——條件計(jì)算和條件記憶這兩種稀疏模式該怎么配合,才能發(fā)揮最佳效果?

實(shí)驗(yàn)發(fā)現(xiàn),在有限資源下,把所有空閑參數(shù)都給MoE(也就是純MoE模型)不是最優(yōu)解,最好的效果是大約75%-80%給MoE,其余20%-25%給Engram。

如果完全由MoE主導(dǎo),模型缺乏靜態(tài)模式的專用記憶,只能靠計(jì)算反復(fù)重建,效率低。而如果完全由Engram主導(dǎo),模型失去了動(dòng)態(tài)計(jì)算能力,無法應(yīng)對需要上下文理解的任務(wù)。

這條U型曲線,驗(yàn)證了兩個(gè)模塊的結(jié)構(gòu)互補(bǔ)性:


前面這一實(shí)驗(yàn)探索的是在固定參數(shù)參數(shù)預(yù)算下的分配優(yōu)化,那么如果把記憶大幅度擴(kuò)展,會(huì)發(fā)生什么?

實(shí)驗(yàn)發(fā)現(xiàn),在MoE主干網(wǎng)絡(luò)不變的情況下,附加Engram表。結(jié)果顯示,增加記憶槽位數(shù)量能持續(xù)、穩(wěn)定地降低驗(yàn)證損失。

在探索范圍內(nèi),曲線嚴(yán)格遵循冪律(對數(shù)空間線性)。DeepSeek認(rèn)為,這意味著Engram提供了一個(gè)可預(yù)測的Scaling新手段:增大記憶持續(xù)帶來收益,而無需增加計(jì)算量。


同時(shí),相比別的只做簡單平均的記憶方法(比如OverEncoding),Engram的Scaling潛力更大,性能提升更明顯。

這些結(jié)果驗(yàn)證了條件記憶作為稀疏容量的獨(dú)立可擴(kuò)展維度,與MoE的條件計(jì)算形成互補(bǔ)。

四、架構(gòu)訓(xùn)練計(jì)算量少18%,性能反超MoE

驗(yàn)證了架構(gòu)、技術(shù)路徑的可行性,DeepSeek團(tuán)隊(duì)的下一步就是進(jìn)行大規(guī)模的Scale,驗(yàn)證這種方式在實(shí)際語言模型預(yù)訓(xùn)練中的有效性。

具體而言,DeepSeek訓(xùn)練了四個(gè)模型:Dense-4B、MoE-27B、Engram-27B、Engram-40B。訓(xùn)練時(shí)的語料庫、分詞器都使用了相同的設(shè)置,而后兩個(gè)模型引入了Engram機(jī)制,用于研究在模型大小不變和Engram進(jìn)一步擴(kuò)展后的特性。

結(jié)果顯示,在相同算力和參數(shù)量的情況下,Engram-27B能在MoE-27B的基線上去取得持續(xù)提升,并且這些增益并不僅限于知識(shí)密集型任務(wù)。通用推理任務(wù)、代碼與數(shù)學(xué)推理任務(wù)從中得到的提升甚至更為顯著,


這些結(jié)果支持了DeepSeek的假設(shè):引入專門的知識(shí)查找原語(knowledge lookup primitive)能夠提升表示效率,這超出了僅將整個(gè)稀疏預(yù)算用于條件計(jì)算所能達(dá)到的效果。

最后,將模型擴(kuò)展到Engram-40B進(jìn)一步降低了預(yù)訓(xùn)練損失,并在大多數(shù)基準(zhǔn)上提升了性能。雖然它尚未在每個(gè)任務(wù)上嚴(yán)格優(yōu)于Engram-27B,但這很可能是訓(xùn)練不足的結(jié)果。

DeepSeek團(tuán)隊(duì)觀察到,在訓(xùn)練結(jié)束時(shí),Engram-40B與基線模型之間的訓(xùn)練損失差距仍在擴(kuò)大,這表明在當(dāng)前的token預(yù)算下,擴(kuò)展的記憶容量尚未完全發(fā)揮其潛力。

接著,DeepSeek團(tuán)隊(duì)用MoE-27B與Engram-27B作為對照組,均使用了5000步(約300億token)的高質(zhì)量長上下文數(shù)據(jù)進(jìn)行微調(diào),然后他們采用DeepSeek-V3中的YaRN技術(shù),將模型的上下文窗口擴(kuò)展到32768個(gè)token

實(shí)驗(yàn)結(jié)果顯示,由于Engram模塊接管了局部依賴的建模,它為模型的注意力機(jī)制騰出了容量,使其能更專注于處理全局上下文。因此,Engram架構(gòu)在處理超長文本和長程推理任務(wù)上比傳統(tǒng)架構(gòu)表現(xiàn)更好,具體表現(xiàn)如下:

在架構(gòu)方面,在排除了基礎(chǔ)模型能力差異的情況下,Engram-27B依然顯著優(yōu)于MoE-27B。

在復(fù)雜的檢索任務(wù)RULER基準(zhǔn)測試中,Engram表現(xiàn)出了更強(qiáng)的長程依賴處理能力。例如在多查詢Multi-Query NIAH任務(wù)中,Engram準(zhǔn)確率大幅領(lǐng)先。


▲長上下文性能比較基準(zhǔn)測試

計(jì)算效率方面,即使只用了82%的預(yù)訓(xùn)練計(jì)算量,Engram-27B的表現(xiàn)依然能與完全訓(xùn)練的MoE-27B基線模型持平,甚至在RULER基準(zhǔn)上實(shí)現(xiàn)超越。

這證明了Engram架構(gòu)具有極高的訓(xùn)練效率,能用更少的計(jì)算資源達(dá)到同等或更好的長上下文性能。

五、Engram淺層效果更好,對事實(shí)性知識(shí)影響較大

而后,DeepSeek團(tuán)隊(duì)對Engram模型進(jìn)行了深入的機(jī)制分析和消融實(shí)驗(yàn)。核心目的是回答“Engram到底是如何工作的?它的各個(gè)組件有什么用?”這兩個(gè)問題。

首先是模型深度與表征分析,DeepSeek團(tuán)隊(duì)通過LogitLens分析顯示,Engram模型在早期層就能更快地收斂到最終預(yù)測結(jié)果,因?yàn)樗ㄟ^查表直接獲取了靜態(tài)知識(shí),不需要像傳統(tǒng)模型那樣通過多層計(jì)算來重組基礎(chǔ)特征。


▲表征對齊和收斂速度分析

中心核對齊分析發(fā)現(xiàn),Engram的淺層在表征上與純MoE模型的深層高度相似。這意味著Engram讓模型在更少的層數(shù)內(nèi)完成了同等復(fù)雜的特征提取,在功能上等同于增加了模型的有效深度。

在架構(gòu)消融實(shí)驗(yàn)中,研究人員發(fā)現(xiàn)將Engram模塊放在較淺的層,如第2層,效果最好。這樣可以盡早卸載模型背負(fù)的局部模式重建任務(wù),讓后面的深層網(wǎng)絡(luò)專注于復(fù)雜的全局推理。


▲結(jié)構(gòu)消融實(shí)驗(yàn)結(jié)果

研究人員還發(fā)現(xiàn),分支特定融合、上下文感知門控和分詞器壓縮對性能影響最大,去掉任何一個(gè)都會(huì)導(dǎo)致驗(yàn)證損失顯著上升,而次要組件輕量級卷積層的影響則較小。

如果把Engram“關(guān)掉”,模型在哪些任務(wù)上會(huì)崩潰?為回答這個(gè)問題,DeepSeek團(tuán)隊(duì)進(jìn)行了功能敏感性分析。他們測試在推理時(shí)強(qiáng)制屏蔽Engram模塊的輸出,觀察性能下降情況。

結(jié)果顯示,在事實(shí)性知識(shí)方面,模型性能災(zāi)難性下降,僅保留約29-44%的性能。這證明Engram是模型存儲(chǔ)參數(shù)化知識(shí)的主要倉庫。

?但在閱讀理解方面,模型性能幾乎不受影響,保留約81-93%。這證明涉及上下文推理的任務(wù)主要由Transformer的骨干網(wǎng)絡(luò)處理,而非記憶模塊。


▲功能敏感性分析結(jié)果

在系統(tǒng)效率與推理吞吐上,由于Engram的訪問模式是預(yù)先可知的,不像MoE需要根據(jù)隱藏狀態(tài)動(dòng)態(tài)路由,系統(tǒng)可以提前從內(nèi)存中預(yù)取數(shù)據(jù)。

即使將一個(gè)1000億參數(shù)的Engram表卸載到主機(jī)內(nèi)存,其在H800硬件上的推理吞吐量下降也不到3%,這證明了Engram能以極低的代價(jià)實(shí)現(xiàn)參數(shù)量的大幅擴(kuò)展。

此外,Engram的門控機(jī)制會(huì)在遇到靜態(tài)模式時(shí)被激活,即變紅。具體表現(xiàn)為當(dāng)模型遇到多詞實(shí)體、固定短語或中文成語以及歷史名詞時(shí),Engram會(huì)被激活進(jìn)行檢索;而在處理需要?jiǎng)討B(tài)推理的文本時(shí),其門控則保持關(guān)閉。


▲門控機(jī)制激活

六、Engram內(nèi)化記憶,與Attention機(jī)制互補(bǔ)

最后,DeepSeek團(tuán)隊(duì)將Engram與MoE、外部記憶與檢索增強(qiáng)、長上下文建模以及表征學(xué)習(xí)與知識(shí)蒸餾進(jìn)行了對比。

傳統(tǒng)MoE是Engram的“前輩”,它通過稀疏激活來擴(kuò)展模型容量。Engram解決了傳統(tǒng)MoE在超大規(guī)模下路由成本高、訓(xùn)練不穩(wěn)定的問題,提供了一種更高效的擴(kuò)展路徑。

對比外部記憶與檢索增強(qiáng)(RAG)這類工作通常是在模型外部掛一個(gè)數(shù)據(jù)庫,在推理時(shí)實(shí)時(shí)檢索。而Engram是內(nèi)化的記憶,它在預(yù)訓(xùn)練階段就把海量知識(shí)消化并固化到了參數(shù)化的記憶表中,這使得它比傳統(tǒng)RAG具有更低的延遲和更強(qiáng)的知識(shí)一致性

長上下文建模這一領(lǐng)域的研究則主要關(guān)注如何讓模型的注意力機(jī)制處理更長的序列。DeepSeek團(tuán)隊(duì)強(qiáng)調(diào),Engram并不是要取代注意力機(jī)制,而是與之互補(bǔ)。Engram負(fù)責(zé)處理局部的、靜態(tài)的上下文依賴,從而讓注意力機(jī)制能更專注于處理全局的、動(dòng)態(tài)的長程依賴。

對于表征學(xué)習(xí)與知識(shí)蒸餾來說,Engram提供了一種新的視角——將模型的知識(shí)解耦為通用推理能力和特定知識(shí)庫。

這種解耦結(jié)構(gòu)天然適合進(jìn)行知識(shí)蒸餾,因?yàn)槲磥淼难芯繄F(tuán)隊(duì)可以選擇只蒸餾輕量級的骨干網(wǎng),而將龐大的知識(shí)庫作為可插拔的附件。

結(jié)語:Engram將實(shí)現(xiàn)低成本超大規(guī)模擴(kuò)展,逼近AGI

Engram架構(gòu)的核心思想就是通過解耦來實(shí)現(xiàn)效率與性能的平衡。

它成功地將“局部模式重建”從復(fù)雜的Transformer骨干網(wǎng)中剝離出來,交由專門的記憶模塊處理。這種設(shè)計(jì)使得模型在保持強(qiáng)大推理能力的同時(shí),能夠以極低的成本擴(kuò)展到超大規(guī)模。

DeepSeek團(tuán)隊(duì)認(rèn)為,Engram不僅僅是一個(gè)學(xué)術(shù)上的新模型,它具有很強(qiáng)的工程落地價(jià)值。

由于記憶模塊的訪問具有確定性,Engram可以進(jìn)行高效的預(yù)取和硬件優(yōu)化,非常適合大規(guī)模部署。

而且,既然知識(shí)集中在Engram表中,未來或許可以通過直接修改這個(gè)表來修正模型的知識(shí)錯(cuò)誤,而無需進(jìn)行昂貴的微調(diào)。

但目前的Engram是在預(yù)訓(xùn)練時(shí)“固化”的。未來的一個(gè)重要方向是讓這個(gè)記憶模塊具備在線學(xué)習(xí)或動(dòng)態(tài)更新的能力,讓模型能實(shí)時(shí)獲取新知識(shí)。

例如,未來的研究可以將Engram擴(kuò)展到多模態(tài)領(lǐng)域,建立一個(gè)通用的多模態(tài)記憶庫。研究人員還可以繼續(xù)探索是否能將模型解耦為更多專用模塊,以進(jìn)一步逼近AGI(通用人工智能)的效率。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
李澤楷被她迷得瘋狂,林丹為她不顧孕妻,她究竟有什么魅力?

李澤楷被她迷得瘋狂,林丹為她不顧孕妻,她究竟有什么魅力?

豐譚筆錄
2026-01-11 07:25:08
離春節(jié)僅一個(gè)月,辛柏青傳來好消息,近況曝光,朱媛媛可以安心了

離春節(jié)僅一個(gè)月,辛柏青傳來好消息,近況曝光,朱媛媛可以安心了

銀河史記
2026-01-13 12:30:15
賴清德支持的賴瑞隆初選勝出,將代表民進(jìn)黨參選2026年高雄市長

賴清德支持的賴瑞隆初選勝出,將代表民進(jìn)黨參選2026年高雄市長

海峽導(dǎo)報(bào)社
2026-01-13 12:16:03
外國人對中國的誤解有多深?網(wǎng)友:很多時(shí)候感覺外國人也挺沒見識(shí)

外國人對中國的誤解有多深?網(wǎng)友:很多時(shí)候感覺外國人也挺沒見識(shí)

帶你感受人間冷暖
2025-12-20 00:10:07
出圈了!代旭兒子小名叫代勁,妻子尹雨航被稱女版鹿晗

出圈了!代旭兒子小名叫代勁,妻子尹雨航被稱女版鹿晗

愛吃冰棍的小痞子
2026-01-13 12:02:06
網(wǎng)傳《歌手2026》陣容,可信度太高,誰會(huì)得“冠軍”呼之欲出

網(wǎng)傳《歌手2026》陣容,可信度太高,誰會(huì)得“冠軍”呼之欲出

楚楚號(hào)
2026-01-12 06:48:55
一顆榴蓮,快讓東南亞卷成“晉西北”了!

一顆榴蓮,快讓東南亞卷成“晉西北”了!

流蘇晚晴
2026-01-07 20:13:10
美國國務(wù)院要求美國公民立即離開伊朗

美國國務(wù)院要求美國公民立即離開伊朗

財(cái)聯(lián)社
2026-01-13 08:12:06
再次提醒,紅旗河工程全是騙局!所有工程人,一定要遠(yuǎn)離

再次提醒,紅旗河工程全是騙局!所有工程人,一定要遠(yuǎn)離

荷蘭豆愛健康
2026-01-12 11:32:56
馬克龍吐槽扎心了!歐洲好日子徹底到頭!

馬克龍吐槽扎心了!歐洲好日子徹底到頭!

達(dá)文西看世界
2026-01-13 14:47:48
沙特1-0勝澳大利亞,慶幸避開中國隊(duì),澳隊(duì)欲哭無淚

沙特1-0勝澳大利亞,慶幸避開中國隊(duì),澳隊(duì)欲哭無淚

大昆說臺(tái)球
2026-01-12 16:10:14
85%的血管淤堵,根本不用過度治療!醫(yī)生:做好3件事,比吃藥管用

85%的血管淤堵,根本不用過度治療!醫(yī)生:做好3件事,比吃藥管用

孟大夫之家1
2026-01-09 15:47:05
丹麥女首相為了討好美國,像瘋狗一樣咬中國,結(jié)果美國要吃它狗腿

丹麥女首相為了討好美國,像瘋狗一樣咬中國,結(jié)果美國要吃它狗腿

百態(tài)人間
2026-01-12 16:23:16
假如美國真把加拿大、格陵蘭島并入版圖,將沒有國家能與美國抗衡

假如美國真把加拿大、格陵蘭島并入版圖,將沒有國家能與美國抗衡

扶蘇聊歷史
2026-01-10 07:30:03
俄媒:土耳其希望加入巴沙防務(wù)聯(lián)盟

俄媒:土耳其希望加入巴沙防務(wù)聯(lián)盟

參考消息
2026-01-12 14:13:51
大力擴(kuò)充“突擊部隊(duì)”!西爾斯基的親軍衛(wèi)隊(duì),為何最霸道?

大力擴(kuò)充“突擊部隊(duì)”!西爾斯基的親軍衛(wèi)隊(duì),為何最霸道?

戰(zhàn)風(fēng)
2026-01-12 15:13:40
1951年,58師全軍抗命,師長:出了事腦袋給主席送去!結(jié)果怎樣?

1951年,58師全軍抗命,師長:出了事腦袋給主席送去!結(jié)果怎樣?

史海孤雁
2026-01-05 16:35:10
土豪有多任性?看完開眼界了,窮限制了我的想象啊

土豪有多任性?看完開眼界了,窮限制了我的想象啊

夜深愛雜談
2026-01-03 22:15:07
朱雨玲奪冠不到24小時(shí),惡心一幕發(fā)生,遭殃的何止孫穎莎、王曼昱

朱雨玲奪冠不到24小時(shí),惡心一幕發(fā)生,遭殃的何止孫穎莎、王曼昱

李健政觀察
2026-01-13 11:01:43
章澤天首錄播客探梁朝偉3億豪宅,劉嘉玲講話時(shí)她偷笑如高中生

章澤天首錄播客探梁朝偉3億豪宅,劉嘉玲講話時(shí)她偷笑如高中生

無心小姐姐
2026-01-12 18:58:26
2026-01-13 16:03:00
智東西 incentive-icons
智東西
聚焦智能變革,服務(wù)產(chǎn)業(yè)升級。
11063文章數(shù) 116941關(guān)注度
往期回顧 全部

科技要聞

每年10億美元!谷歌大模型注入Siri

頭條要聞

78歲陶華碧"出山救子" 老干媽"觸底反彈"1年大賣54億

頭條要聞

78歲陶華碧"出山救子" 老干媽"觸底反彈"1年大賣54億

體育要聞

CBA還能眾籌換帥?

娛樂要聞

周杰倫以球員身份參加澳網(wǎng),C位海報(bào)公開

財(cái)經(jīng)要聞

中國一口氣申報(bào)20萬顆衛(wèi)星,意味著什么?

汽車要聞

限時(shí)9.99萬元起 2026款啟辰大V DD-i虎鯨上市

態(tài)度原創(chuàng)

游戲
教育
藝術(shù)
旅游
親子

PS玩家沖!港服節(jié)日特惠更新:大鏢客、劍星超好價(jià)

教育要聞

湖北中考真題,判斷大小,答錯(cuò)復(fù)讀

藝術(shù)要聞

書法爭議再起:拙與妍孰優(yōu)孰劣引發(fā)熱議

旅游要聞

冬日濟(jì)南臘梅飄香

親子要聞

內(nèi)膜薄備孕怎么辦?高齡備孕期間需要吃的營養(yǎng)品?

無障礙瀏覽 進(jìn)入關(guān)懷版