国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

【梁文鋒署名】DeepSeek再發(fā)新論文:75%思考+25%記憶,這是他們算出來(lái)的最優(yōu)解

0
分享至

DeepSeek又發(fā)論文了。

這次的主題有點(diǎn)意思:他們發(fā)現(xiàn),現(xiàn)在的大模型在浪費(fèi)大量算力做一件很傻的事——用計(jì)算來(lái)模擬查字典

論文叫《Conditional Memory via Scalable Lookup》,核心是一個(gè)叫Engram的模塊。


這個(gè)名字有點(diǎn)意思。Engram是神經(jīng)科學(xué)術(shù)語(yǔ),最早由德國(guó)生物學(xué)家Richard Semon在1904年提出,指的是大腦中存儲(chǔ)記憶痕跡的物理結(jié)構(gòu)——當(dāng)你記住"巴黎是法國(guó)首都"這個(gè)事實(shí)時(shí),這條信息就以某種物理形式(可能是特定的神經(jīng)連接模式)存儲(chǔ)在你的大腦里,這個(gè)物理痕跡就叫engram。

DeepSeek用這個(gè)名字,顯然是想說(shuō):我們要給大模型裝上真正的"記憶"

說(shuō)實(shí)話,看完之后我挺興奮的——這篇論文的思路非常優(yōu)雅,而且解決的是一個(gè)很根本的問(wèn)題。更重要的是,它觸及了一個(gè)認(rèn)知科學(xué)的經(jīng)典命題:記憶和思考是什么關(guān)系?

先說(shuō)問(wèn)題:大模型在浪費(fèi)算力做"背書(shū)"

你有沒(méi)有想過(guò),當(dāng)大模型看到"Diana, Princess of Wales"(戴安娜王妃)這個(gè)詞的時(shí)候,它內(nèi)部發(fā)生了什么?

DeepSeek在論文里引用了一個(gè)很有意思的研究(PatchScope):模型需要消耗多層Attention和FFN,才能逐步把這個(gè)實(shí)體識(shí)別出來(lái)。

具體來(lái)說(shuō),模型處理"Wales"這個(gè)詞時(shí)的內(nèi)部狀態(tài)演變:

層數(shù)

模型內(nèi)部理解

1-2層

"威爾士"(當(dāng)成英國(guó)的一個(gè)地區(qū))

3層

"歐洲的一個(gè)國(guó)家"

4層

"女性君主持有的頭銜"(開(kāi)始識(shí)別Princess)

5層

"威爾士王儲(chǔ)的妻子"

6層

"戴安娜王妃(1961-1997),查爾斯王子的前妻"

看到?jīng)]?模型用了6層計(jì)算,才把一個(gè)固定的歷史人物識(shí)別出來(lái)。

問(wèn)題在于:這個(gè)信息是靜態(tài)的、固定的,根本不需要每次都"計(jì)算"出來(lái)

"亞歷山大大帝"就是"亞歷山大大帝","四大發(fā)明"就是"四大發(fā)明","張仲景"就是"張仲景"。這些固定搭配、命名實(shí)體、慣用表達(dá),每次都用神經(jīng)網(wǎng)絡(luò)重新計(jì)算一遍,是不是有點(diǎn)傻?

這就像你每次需要查"中國(guó)首都是哪"的時(shí)候,不是直接查字典,而是從頭推理一遍——中國(guó)是個(gè)國(guó)家,國(guó)家有首都,中國(guó)的政治中心在...

DeepSeek的核心觀點(diǎn)是:大模型浪費(fèi)了大量的"網(wǎng)絡(luò)深度"在做這種重復(fù)性的靜態(tài)知識(shí)重建。這些算力本來(lái)可以用來(lái)做更有價(jià)值的事——比如推理。

Engram的核心思想:給模型發(fā)一本字典

想象你在考試。

以前的規(guī)則是:什么都不能帶,全靠腦子現(xiàn)場(chǎng)推。"亞歷山大大帝是誰(shuí)?"你得從頭想——亞歷山大,希臘名字,大帝說(shuō)明是君主,歷史上有名的希臘君主...

現(xiàn)在新規(guī)則:允許帶一本字典進(jìn)考場(chǎng)。字典里寫(xiě)著"亞歷山大大帝 = 馬其頓國(guó)王,公元前356-323年,征服了波斯帝國(guó)"。你直接翻到這一頁(yè),抄上去,省下來(lái)的時(shí)間做后面的推理題。

Engram就是這本字典。


具體怎么查?很簡(jiǎn)單:

模型看到"Alexander the Great"這三個(gè)詞連在一起,就像看到字典的索引詞條。它用一個(gè)很快的方法(哈希)定位到字典里對(duì)應(yīng)的那一頁(yè),直接把預(yù)先存好的信息拿出來(lái)用。

整個(gè)過(guò)程不需要"思考",只需要"翻頁(yè)"。

但這里有個(gè)問(wèn)題:同一個(gè)詞在不同場(chǎng)合意思不一樣。

比如"蘋(píng)果",可能是水果,也可能是那家科技公司。字典里存的是哪個(gè)意思?

Engram的解決方案很聰明:查完字典之后,先看看上下文,再?zèng)Q定用不用

如果前面在聊水果,字典里查出來(lái)的"蘋(píng)果公司"就不太對(duì)勁,模型會(huì)自動(dòng)忽略這個(gè)查表結(jié)果,繼續(xù)用自己的推理。如果前面在聊手機(jī),那字典里的信息就很有用,直接采納。

這就像一個(gè)聰明的學(xué)生:帶了字典進(jìn)考場(chǎng),但不是無(wú)腦抄,而是先判斷字典里的答案和題目對(duì)不對(duì)得上。

關(guān)鍵發(fā)現(xiàn):U型縮放定律

這里是論文最有意思的部分。

DeepSeek研究了一個(gè)問(wèn)題:如果總參數(shù)量固定,應(yīng)該把多少參數(shù)分配給MoE專家,多少分配給Engram記憶?

他們定義了一個(gè)"分配比例"ρ:

  • ρ = 100% 表示純MoE(所有稀疏參數(shù)都給專家)

  • ρ < 100% 表示把部分參數(shù)從專家轉(zhuǎn)移到Engram

實(shí)驗(yàn)結(jié)果讓人驚訝:


驗(yàn)證損失呈現(xiàn)U型分布

  • 純MoE(ρ=100%)不是最優(yōu)的

  • 分配約20-25%給Engram(ρ≈75-80%)效果最好

  • 把太多參數(shù)給Engram(ρ<50%)效果又變差

這個(gè)U型曲線說(shuō)明了什么?

MoE和Engram是互補(bǔ)的

  • MoE擅長(zhǎng)動(dòng)態(tài)的、需要上下文推理的任務(wù)

  • Engram擅長(zhǎng)靜態(tài)的、固定模式的識(shí)別

兩者缺一不可。純MoE缺少記憶能力,純Engram缺少推理能力。

插一段:博爾赫斯早就寫(xiě)過(guò)這個(gè)

看到這個(gè)U型曲線的時(shí)候,我突然想起博爾赫斯的一個(gè)短篇:**《博聞強(qiáng)記的富內(nèi)斯》**(Funes the Memorious)。

故事講的是一個(gè)叫富內(nèi)斯的阿根廷青年,從馬上摔下來(lái)之后,獲得了"完美記憶"的能力——他能記住一切。每一片葉子的形狀,每一朵云的變化,甚至能記住1882年4月30日黎明時(shí)分南方天空的云彩排列。

但博爾赫斯寫(xiě)道:富內(nèi)斯無(wú)法思考

"思考就是忘記差異,就是概括,就是抽象。在富內(nèi)斯塞滿了東西的世界里,只有細(xì)節(jié),幾乎是直接感知的細(xì)節(jié)。"

富內(nèi)斯能記住三個(gè)不同時(shí)刻看到的同一條狗,但他無(wú)法理解"狗"這個(gè)概念——因?yàn)槊恳粭l狗、每一個(gè)瞬間的狗,對(duì)他來(lái)說(shuō)都是完全不同的東西。他記住了一切,卻失去了抽象的能力。

這不就是論文里U型曲線的左端嗎?

當(dāng)ρ趨近于0(全是Engram,沒(méi)有MoE)時(shí),模型有無(wú)限的記憶,但失去了推理能力。它能記住"亞歷山大大帝"是誰(shuí),但無(wú)法用這些知識(shí)進(jìn)行推理。

反過(guò)來(lái),當(dāng)ρ=100%(全是MoE,沒(méi)有Engram)時(shí),模型有強(qiáng)大的推理能力,但要浪費(fèi)大量算力重建那些本可以直接記住的東西。

博爾赫斯在1942年就洞察到了這一點(diǎn):記憶和思考是互補(bǔ)的,但也是對(duì)立的。完美的記憶會(huì)殺死思考,而純粹的思考則需要不斷重新發(fā)明輪子。

最優(yōu)解在中間——既有記憶,又有思考。

DeepSeek的實(shí)驗(yàn)數(shù)據(jù)給出了一個(gè)驚人精確的答案:大約75-80%給思考,20-25%給記憶

這讓我想到另一個(gè)認(rèn)知心理學(xué)的經(jīng)典概念:**組塊(Chunking)**。

1956年,心理學(xué)家George Miller發(fā)表了著名的論文《神奇的數(shù)字7±2》,指出人類工作記憶的容量是有限的,但我們可以通過(guò)"組塊"來(lái)擴(kuò)展它。比如記電話號(hào)碼138-8888-6666,你不是記11個(gè)數(shù)字,而是記3個(gè)組塊。

N-gram本質(zhì)上就是語(yǔ)言的組塊。"亞歷山大大帝"不是5個(gè)字,而是1個(gè)組塊。Engram做的事情,就是把這些組塊預(yù)先存好,省得每次都要重新計(jì)算。

人腦早就在這么干了。DeepSeek只是讓大模型學(xué)會(huì)了同樣的技巧。

實(shí)驗(yàn)結(jié)果:推理能力提升比知識(shí)提升更大

這是讓我最驚訝的部分。

你可能會(huì)想:Engram是個(gè)"記憶模塊",應(yīng)該主要提升知識(shí)類任務(wù)吧?

確實(shí),知識(shí)任務(wù)有提升:

  • MMLU:+3.4

  • CMMLU:+4.0

  • MMLU-Pro:+1.8

推理任務(wù)的提升更大

  • BBH:+5.0

  • ARC-Challenge:+3.7

  • DROP:+3.3

甚至代碼和數(shù)學(xué)也有顯著提升:

  • HumanEval:+3.0

  • MATH:+2.4

  • GSM8K:+2.2

等等,一個(gè)"記憶模塊"為什么能提升推理能力?

機(jī)制分析:為什么"記憶模塊"能提升推理?

這是我最想搞明白的問(wèn)題。

DeepSeek做了一個(gè)很有意思的實(shí)驗(yàn):他們"偷看"模型每一層在想什么。

具體方法是:把每一層的中間結(jié)果拿出來(lái),問(wèn)它"你現(xiàn)在覺(jué)得下一個(gè)詞是什么?"。如果這一層已經(jīng)很接近最終答案,說(shuō)明模型在這一層就基本"想明白了"。

結(jié)果很直觀:

有Engram的模型,在很早的層就"想明白了";沒(méi)有Engram的模型,要到很深的層才行。

為什么?

因?yàn)闆](méi)有字典的模型,前面幾層都在忙著做一件事:搞清楚"亞歷山大大帝"是誰(shuí)。它得一層一層地拼湊——這是個(gè)人名,是個(gè)歷史人物,是個(gè)國(guó)王,是馬其頓的國(guó)王...

等它終于搞清楚這是誰(shuí)了,已經(jīng)用掉了5、6層。剩下的層才能開(kāi)始真正的推理。

但有字典的模型不一樣。第2層的時(shí)候,Engram直接告訴它:"亞歷山大大帝 = 馬其頓國(guó)王,征服者"。好了,搞定,后面20多層全部用來(lái)推理。

這就像兩個(gè)學(xué)生做同一張卷子

一個(gè)學(xué)生得先花20分鐘背公式,再用40分鐘做題。

另一個(gè)學(xué)生帶了公式表,60分鐘全用來(lái)做題。

誰(shuí)的推理題做得更好?顯然是第二個(gè)。

DeepSeek還做了一個(gè)更精確的測(cè)量:Engram模型第5層的"思考深度",相當(dāng)于普通模型第12層的水平。

換句話說(shuō),Engram相當(dāng)于免費(fèi)給模型加了7層深度。

這就解釋了為什么推理能力提升這么大——不是Engram本身能推理,而是它把推理的空間讓出來(lái)了

長(zhǎng)上下文能力也炸了

還有個(gè)意外收獲:處理長(zhǎng)文章的能力暴漲。

有個(gè)測(cè)試叫"大海撈針"——在一篇很長(zhǎng)的文章里藏一句關(guān)鍵信息,看模型能不能找到。

任務(wù)

沒(méi)有字典

有字典

多問(wèn)題大海撈針

84.2%

97.0%

變量追蹤

77.0%

89.0%

為什么字典能幫助處理長(zhǎng)文章?

想象你在讀一本很長(zhǎng)的小說(shuō)。如果你每次看到"福爾摩斯"都要停下來(lái)想"這是誰(shuí)來(lái)著...",讀到后面肯定記不住前面的劇情。

但如果"福爾摩斯 = 偵探,住貝克街221B"這個(gè)信息已經(jīng)存在字典里,你的注意力就可以全部用來(lái)追蹤劇情——誰(shuí)殺了誰(shuí),線索在哪,兇手是誰(shuí)。

Engram處理了"這是誰(shuí)"的問(wèn)題,Attention就可以專注于"發(fā)生了什么"的問(wèn)題。

相當(dāng)于給大腦減負(fù)了。

系統(tǒng)設(shè)計(jì):字典可以放在抽屜里

這里體現(xiàn)了DeepSeek一貫的風(fēng)格:理論創(chuàng)新和工程落地并重。

繼續(xù)用考試的比喻。

MoE(專家模型)的問(wèn)題是:每道題都要"現(xiàn)場(chǎng)"決定找哪個(gè)專家來(lái)答,這個(gè)決定本身就要花時(shí)間。

但字典不一樣。你看到"亞歷山大大帝",就知道要翻到A開(kāi)頭那一頁(yè)。你不需要先讀完整道題,才知道去查哪個(gè)詞條。

這意味著什么?

意味著字典可以提前準(zhǔn)備好。

模型還在處理第1層的時(shí)候,系統(tǒng)就已經(jīng)知道第2層要查什么詞條了。所以可以提前把那一頁(yè)準(zhǔn)備好,等模型算到第2層的時(shí)候,字典已經(jīng)翻開(kāi)擺在那兒了。

更妙的是:字典不需要放在桌上,放在抽屜里也行。

GPU顯存很貴,就像桌面空間有限。但CPU內(nèi)存便宜得多,就像抽屜容量大得多。

既然可以提前知道要查什么,那就提前從抽屜里把那一頁(yè)拿出來(lái),等用的時(shí)候已經(jīng)在桌上了。

DeepSeek做了個(gè)實(shí)驗(yàn):把一本1000億參數(shù)的"字典"放在抽屜里(CPU內(nèi)存),結(jié)果:

配置

速度

不帶字典

9,031 字/秒

帶1000億參數(shù)字典(放抽屜里)

8,858 字/秒

只慢了2% ,但多了1000億參數(shù)的知識(shí)。

這就是為什么Engram可以做得很大——字典放抽屜里就行,不占桌面。

門(mén)控可視化:確實(shí)在識(shí)別固定模式

論文最后有個(gè)很直觀的可視化:


紅色表示門(mén)控值高(Engram被激活),白色表示門(mén)控值低(Engram被忽略)。

可以看到,門(mén)控在這些地方激活:

  • "Alexander the Great"(亞歷山大大帝)

  • "the Milky Way"(銀河系)

  • "Princess of Wales"(威爾士王妃)

  • "四大發(fā)明"

  • "張仲景"

  • "傷寒雜病論"

全是命名實(shí)體和固定搭配。Engram確實(shí)在做它該做的事:識(shí)別靜態(tài)模式。

往大了說(shuō):DeepSeek在開(kāi)一條新路

回到開(kāi)頭的問(wèn)題:這篇論文的意義是什么?

過(guò)去幾年,大家都在一個(gè)方向上卷:怎么讓模型算得更聰明。MoE讓不同的專家處理不同的問(wèn)題,Attention讓模型看到更遠(yuǎn)的上下文,更深的網(wǎng)絡(luò)讓推理更復(fù)雜。

但不管怎么卷,本質(zhì)上都是在優(yōu)化"計(jì)算"。

DeepSeek說(shuō):等等,有些問(wèn)題根本不需要算,查一下就行了。

這個(gè)思路其實(shí)很符合直覺(jué):人腦也不是什么都靠推理,很多時(shí)候就是直接調(diào)用記憶。你看到"1+1"不需要推理,直接輸出"2"就行。

論文最后一句話很有意思:

"We envision conditional memory as an indispensable modeling primitive for next-generation sparse models."

翻譯過(guò)來(lái):我們認(rèn)為條件記憶會(huì)成為下一代稀疏模型的基礎(chǔ)組件。

DeepSeek在押注一個(gè)新的架構(gòu)方向。

最后:記憶與思考的平衡

回到開(kāi)頭的問(wèn)題:記憶和思考是什么關(guān)系?

博爾赫斯用富內(nèi)斯告訴我們:完美的記憶會(huì)殺死思考。認(rèn)知心理學(xué)告訴我們:人腦用組塊來(lái)平衡記憶和思考的負(fù)擔(dān)。

現(xiàn)在DeepSeek用實(shí)驗(yàn)數(shù)據(jù)告訴我們:最優(yōu)的比例大約是75%計(jì)算 + 25%記憶。

這個(gè)數(shù)字讓我覺(jué)得很有意思。它意味著,即使是"智能"系統(tǒng),也不能全靠"聰明"——你得記住一些東西,才能把腦力用在更值得思考的地方。

這篇論文給我最大的啟發(fā)是:有時(shí)候最好的優(yōu)化不是讓計(jì)算更快,而是把計(jì)算變成查表

O(1)的查表永遠(yuǎn)比O(n)的計(jì)算快。如果一個(gè)問(wèn)題的答案是固定的、可以預(yù)先算好存起來(lái)的,那就沒(méi)必要每次都重新算。

這個(gè)道理在計(jì)算機(jī)科學(xué)里叫"空間換時(shí)間"。但在大模型領(lǐng)域,過(guò)去幾年大家都在卷MoE、卷Attention、卷更深的網(wǎng)絡(luò),似乎忘了還有"記憶"這條路。

DeepSeek的Engram提醒我們:大模型不是越大越好、也不是越深越好,關(guān)鍵是把合適的任務(wù)分配給合適的模塊

靜態(tài)知識(shí) → 查表(Engram)

動(dòng)態(tài)推理 → 計(jì)算(MoE)

就像人腦一樣:你不需要每次看到"1+1"都重新推導(dǎo),直接從記憶里調(diào)出"2"就行了。省下來(lái)的腦力,用來(lái)思考更有價(jià)值的問(wèn)題。

富內(nèi)斯記住了一切,卻無(wú)法思考。

純MoE模型能夠思考,卻要浪費(fèi)算力重建記憶。

最聰明的系統(tǒng),是知道什么該記住、什么該思考的系統(tǒng)。

參考資料

  • Engram論文:https://github.com/deepseek-ai/Engram

  • DeepSeek-V3技術(shù)報(bào)告:https://arxiv.org/abs/2412.19437

  • mHC論文:https://arxiv.org/abs/2512.24880

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
歷史性突破!人民幣石油結(jié)算躍居全球第二。

歷史性突破!人民幣石油結(jié)算躍居全球第二。

流蘇晚晴
2026-04-16 19:08:19
談臺(tái)灣農(nóng)產(chǎn)品銷(xiāo)陸,王金平人馬蕭漢俊促民進(jìn)黨當(dāng)局別為反對(duì)而反對(duì)

談臺(tái)灣農(nóng)產(chǎn)品銷(xiāo)陸,王金平人馬蕭漢俊促民進(jìn)黨當(dāng)局別為反對(duì)而反對(duì)

海峽導(dǎo)報(bào)社
2026-04-21 07:36:08
你與球員間有隔閡嗎?羅塞尼爾:沒(méi)有,是他們?nèi)狈Χ分竞托拍?>
    </a>
        <h3>
      <a href=懂球帝
2026-04-22 06:02:26
東風(fēng) - 31 泄密大案:總工程師被美色策反,國(guó)之重器險(xiǎn)遭滅頂之災(zāi)

東風(fēng) - 31 泄密大案:總工程師被美色策反,國(guó)之重器險(xiǎn)遭滅頂之災(zāi)

干史人
2026-04-18 13:44:12
雷神山院長(zhǎng)落馬,最揪心的是無(wú)數(shù)女醫(yī)護(hù)背后的家庭

雷神山院長(zhǎng)落馬,最揪心的是無(wú)數(shù)女醫(yī)護(hù)背后的家庭

墨羽怪談
2026-04-21 14:13:25
5種人工養(yǎng)殖的海魚(yú),幾乎沒(méi)有純野生的,最后一種號(hào)稱“藥罐子”

5種人工養(yǎng)殖的海魚(yú),幾乎沒(méi)有純野生的,最后一種號(hào)稱“藥罐子”

秀廚娘
2026-04-16 11:24:34
打了45天,伊朗終于發(fā)現(xiàn)最大敵人不是美國(guó),不是以色列,而是他們

打了45天,伊朗終于發(fā)現(xiàn)最大敵人不是美國(guó),不是以色列,而是他們

楠楠自語(yǔ)
2026-04-15 13:07:39
600606,致歉!更正業(yè)績(jī)預(yù)告,最多虧損265億元!

600606,致歉!更正業(yè)績(jī)預(yù)告,最多虧損265億元!

證券時(shí)報(bào)e公司
2026-04-21 19:33:07
郭士強(qiáng)現(xiàn)場(chǎng)考察,個(gè)人認(rèn)為三名球員應(yīng)進(jìn)國(guó)家隊(duì),21歲小將上榜

郭士強(qiáng)現(xiàn)場(chǎng)考察,個(gè)人認(rèn)為三名球員應(yīng)進(jìn)國(guó)家隊(duì),21歲小將上榜

男足的小球童
2026-04-21 18:16:37
中國(guó)最時(shí)髦女性,都在練芭桿

中國(guó)最時(shí)髦女性,都在練芭桿

體育產(chǎn)業(yè)生態(tài)圈
2026-04-21 20:46:24
醫(yī)生忠告:肺癌早期不是咳嗽,而是頻繁出現(xiàn)這3個(gè)癥狀,小心異常

醫(yī)生忠告:肺癌早期不是咳嗽,而是頻繁出現(xiàn)這3個(gè)癥狀,小心異常

芹姐說(shuō)生活
2026-04-18 15:22:35
女籃世界杯分組出爐!中國(guó)隊(duì)進(jìn)死亡之組,難進(jìn)8強(qiáng),日韓抽到好簽

女籃世界杯分組出爐!中國(guó)隊(duì)進(jìn)死亡之組,難進(jìn)8強(qiáng),日韓抽到好簽

侃球熊弟
2026-04-22 01:01:46
擬授大將的王震為何終被授上將?與戰(zhàn)功無(wú)關(guān),賀龍態(tài)度成核心因素

擬授大將的王震為何終被授上將?與戰(zhàn)功無(wú)關(guān),賀龍態(tài)度成核心因素

莫地方
2026-04-22 00:45:03
采訪了100個(gè)娶了小三的男人,他們幾乎都說(shuō)了同一句話,讓人恍然

采訪了100個(gè)娶了小三的男人,他們幾乎都說(shuō)了同一句話,讓人恍然

千秋文化
2026-04-15 20:18:32
美伊還沒(méi)?;?,又一國(guó)要迎戰(zhàn)美軍,中國(guó)無(wú)視警告,先一步送上援助

美伊還沒(méi)?;?,又一國(guó)要迎戰(zhàn)美軍,中國(guó)無(wú)視警告,先一步送上援助

聞識(shí)
2026-04-19 23:14:34
深圳海事局發(fā)出警示

深圳海事局發(fā)出警示

澎湃新聞
2026-04-21 01:19:02
李亞鵬官宣!嫣然醫(yī)院告別14年租房,新院區(qū)地理位置優(yōu)越

李亞鵬官宣!嫣然醫(yī)院告別14年租房,新院區(qū)地理位置優(yōu)越

王楔曉
2026-04-21 04:42:47
同時(shí)聊300個(gè)“老頭”,能月入兩三萬(wàn)?專挑8090后下手,批量收割

同時(shí)聊300個(gè)“老頭”,能月入兩三萬(wàn)?專挑8090后下手,批量收割

米果說(shuō)識(shí)
2026-04-19 22:20:16
F1車(chē)隊(duì)集體“逼宮”成功!FIA妥協(xié),2026規(guī)則修改,邁阿密站實(shí)施

F1車(chē)隊(duì)集體“逼宮”成功!FIA妥協(xié),2026規(guī)則修改,邁阿密站實(shí)施

體育妞世界
2026-04-21 11:05:45
吳宜澤:贏得冠軍是我的夢(mèng)想!奧沙利文走錯(cuò)場(chǎng)地,第34次戰(zhàn)世錦賽

吳宜澤:贏得冠軍是我的夢(mèng)想!奧沙利文走錯(cuò)場(chǎng)地,第34次戰(zhàn)世錦賽

排球黃金眼
2026-04-22 00:49:53
2026-04-22 08:16:49
AI進(jìn)化論花生 incentive-icons
AI進(jìn)化論花生
AI博主,AppStore付費(fèi)榜第一的小貓補(bǔ)光燈app開(kāi)發(fā)者
189文章數(shù) 111關(guān)注度
往期回顧 全部

科技要聞

創(chuàng)造4萬(wàn)億帝國(guó)、訪華20次,庫(kù)克留下了什么

頭條要聞

伊朗極限拉扯拒絕談判 特朗普宣布:延長(zhǎng)?;鹌谙?/h3>

頭條要聞

伊朗極限拉扯拒絕談判 特朗普宣布:延長(zhǎng)停火期限

體育要聞

一到NBA季后賽,四屆DPOY就成了主角

娛樂(lè)要聞

宋承炫曬寶寶B超照,宣布老婆懷孕

財(cái)經(jīng)要聞

現(xiàn)實(shí)是最大的荒誕:千億平臺(tái)的沖突始末

汽車(chē)要聞

全新坦克700正式上市 售價(jià)42.8萬(wàn)-50.8萬(wàn)元

態(tài)度原創(chuàng)

時(shí)尚
藝術(shù)
本地
親子
手機(jī)

頂流復(fù)工,已判若兩人

藝術(shù)要聞

無(wú)花不風(fēng)景

本地新聞

春色滿城關(guān)不?。座N梅浪漫盛放,吳山藏了一片四月雪

親子要聞

才六天的馬寶寶,發(fā)這個(gè)視頻沒(méi)有別的意思,只是想騙你們生女兒而已

手機(jī)要聞

11999元!OPPO Find X9 Ultra哈蘇大地探索家大師套裝閃電售罄:黃牛加價(jià)賣(mài)

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版