国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

馬斯克驚嘆!DeepSeek和Kimi先后出手,捅破了Transformer的「潛規(guī)則」!

0
分享至

晚上突然看到馬斯克發(fā)了一條推:「Impressive work from Kimi」。


去查了下,想看看咋咋?;5睦像R又是被啥震驚到了。

然后,發(fā)現(xiàn)原來(lái)是Kimi發(fā)了篇論文


特意幫你們?nèi)フJ(rèn)真讀了讀被老馬夸nb的論文是怎么回事。然后我發(fā)現(xiàn)這篇論文的主角我居然還挺熟悉的——?dú)埐钸B接。

我的第一反應(yīng)是:咦,這不是DeepSeek去年底剛動(dòng)過(guò)的東西嗎?

今年1月份的時(shí)候,我寫(xiě)過(guò)一篇我迄今為止閱讀量最高的解讀DeepSeek的mHC論文的文章。核心是:DeepSeek找到了一個(gè)大家覺(jué)得不需要改的東西——?dú)埐钸B接,然后改了它。


現(xiàn)在Kimi也在殘差連接上動(dòng)刀,而且馬斯克說(shuō)impressive。我?guī)еЩ蟀颜撐淖x了一遍。

結(jié)論是:兩家實(shí)驗(yàn)室發(fā)現(xiàn)了同一個(gè)問(wèn)題,但解法的出發(fā)點(diǎn)完全不同,深度也不同。

DeepSeek發(fā)現(xiàn)了什么問(wèn)題,怎么解的

先快速回顧一下DeepSeek那篇,如果已經(jīng)讀過(guò)可以直接跳過(guò)這節(jié)。

標(biāo)準(zhǔn)殘差連接長(zhǎng)這樣:

h_l = h_{l-1} + f_{l-1}(h_{l-1})

每一層的輸出 = 上一層輸出 + 這一層學(xué)到的新東西。固定權(quán)重,均勻累加。2015年ResNet提出,所有大模型沿用至今。

DeepSeek的問(wèn)題意識(shí)是:固定權(quán)重是不是太死板了?每一層對(duì)之前所有層都一視同仁,合理嗎?

他們的第一個(gè)嘗試是Hyper-Connections(HC):把殘差流從1條擴(kuò)展到4條,每條的權(quán)重可學(xué)習(xí),讓模型自己決定怎么混合信號(hào)。

效果好,但有個(gè)致命問(wèn)題:訓(xùn)練不穩(wěn)定。可學(xué)習(xí)的權(quán)重矩陣沒(méi)有任何約束,經(jīng)過(guò)60層累乘之后,信號(hào)被放大了3000倍。實(shí)測(cè)損失曲線在訓(xùn)練到一半時(shí)突然飆升。

最終版本mHC的解法:把權(quán)重矩陣約束在「雙隨機(jī)矩陣」上——滿(mǎn)足每行之和=1、每列之和=1的矩陣。這個(gè)約束的數(shù)學(xué)性質(zhì)保證了矩陣的譜范數(shù)≤1,多層連乘之后信號(hào)不會(huì)爆炸。訓(xùn)練穩(wěn)定了,性能也超過(guò)了原始?xì)埐钸B接。代價(jià)只有6.7%的額外訓(xùn)練時(shí)間。

DeepSeek的解法可以用一句話(huà)總結(jié):讓連接權(quán)重從固定變成可學(xué)習(xí),同時(shí)用數(shù)學(xué)約束保證穩(wěn)定性。

Kimi發(fā)現(xiàn)了什么,為什么看起來(lái)一樣

Kimi的論文開(kāi)頭也在講殘差連接的問(wèn)題。我讀到這里,真的困惑了一下——這不就是DeepSeek mHC做的事情嗎?

但繼續(xù)往下讀,Kimi的問(wèn)題定義和DeepSeek不在同一個(gè)層面。

DeepSeek問(wèn)的是:權(quán)重能不能更靈活?

Kimi問(wèn)的是:更根本的問(wèn)題在哪?就算權(quán)重可以學(xué)習(xí),整個(gè)設(shè)計(jì)里還有什么沒(méi)解決?

他們找到了三個(gè)答案。

第一,不能點(diǎn)菜。

每一層只能看到上一層傳下來(lái)的「混合狀態(tài)」——所有前面層的輸出被攪在一起的結(jié)果。但不同類(lèi)型的層需要的東西是不一樣的:有些層可能更需要早期的原始語(yǔ)義,有些層可能更需要最近幾層剛算出來(lái)的特征?,F(xiàn)在它們只能吃同一份混合好的東西,沒(méi)辦法說(shuō)「我要第3層的輸出」。

mHC讓混合的方式更靈活了,但本質(zhì)上每條路拿到的還是混合過(guò)的狀態(tài),沒(méi)法回頭單獨(dú)取某一層的輸出。

第二,信息找不回來(lái)。

某一層學(xué)到了一個(gè)很有價(jià)值的東西,但一旦被混進(jìn)累積狀態(tài),就和其他層的輸出攪在一起了。隨著后面的層不斷疊加新輸出,這個(gè)信息越來(lái)越淡,最終被淹沒(méi)。不可逆的。

第三,后面的層越來(lái)越難產(chǎn)生影響。

想象你在一間越來(lái)越吵的房間里說(shuō)話(huà)。前面的層已經(jīng)積累了很大的信號(hào),后面的層必須喊得比所有前輩加起來(lái)更大聲,才能被聽(tīng)到。論文測(cè)量了這個(gè)效應(yīng):到了模型最后幾層,信號(hào)量級(jí)是最開(kāi)始的十多倍。后面的層要產(chǎn)生同等影響,需要付出十倍以上的「音量」。


mHC解決了訓(xùn)練穩(wěn)定性,但這三個(gè)根本問(wèn)題還在——因?yàn)閙HC的權(quán)重雖然可學(xué)習(xí),但訓(xùn)練完就固定了。不管輸入是什么,權(quán)重都一樣。

Kimi的解法:把時(shí)間維度的方案搬到深度維度

找到了問(wèn)題,Kimi的解法來(lái)自一個(gè)很漂亮的類(lèi)比。

這三個(gè)問(wèn)題——不能點(diǎn)菜、信息找不回來(lái)、后面的層越來(lái)越難發(fā)聲——是不是很眼熟?

如果你了解深度學(xué)習(xí)的歷史,會(huì)發(fā)現(xiàn)這和2017年之前處理文本序列時(shí)遇到的問(wèn)題一模一樣。

當(dāng)時(shí)用的是RNN,處理一段話(huà)時(shí),也是把所有歷史信息壓縮進(jìn)一個(gè)狀態(tài),每一步更新。同樣信息找不回來(lái),同樣不能選擇性地回頭看早期內(nèi)容。

2017年,《Attention Is All You Need》那篇?jiǎng)潟r(shí)代的論文提出了Transformer,用注意力機(jī)制解決了這個(gè)問(wèn)題:處理一段話(huà)時(shí),每個(gè)位置不再只能看到上一步壓縮后的狀態(tài),而是可以直接回頭看所有歷史位置,根據(jù)當(dāng)前內(nèi)容動(dòng)態(tài)決定關(guān)注哪里。

但有意思的是,《Attention Is All You Need》升級(jí)了文本處理的信息流,卻沒(méi)有動(dòng)層與層之間的信息流——?dú)埐钸B接依然是2015年的固定累加。

Kimi的問(wèn)題是:處理文本時(shí),我們已經(jīng)用注意力替代了「壓縮傳遞」;那層與層之間,為什么還在用「壓縮傳遞」?

這就是AttnRes的核心洞察:把注意力機(jī)制用到層與層之間的連接上。某種意義上,這是《Attention Is All You Need》在深度方向上的續(xù)集。


簡(jiǎn)單說(shuō),改完之后每一層可以「回頭看」所有之前層的輸出,然后根據(jù)當(dāng)前處理的內(nèi)容,動(dòng)態(tài)決定最需要參考哪幾層的結(jié)果。這個(gè)「回頭看」的過(guò)程就是注意力機(jī)制——和Transformer處理文本時(shí)做的事情一樣,只不過(guò)方向從「回頭看之前的文字」變成了「回頭看之前的層」。

參數(shù)代價(jià)幾乎可以忽略:每一層只多了一個(gè)向量。

最關(guān)鍵的一點(diǎn):這個(gè)「回頭看誰(shuí)」的權(quán)重不是固定的。同樣一個(gè)模型,處理不同的輸入,每一層對(duì)之前各層的關(guān)注程度是不同的——完全根據(jù)當(dāng)前內(nèi)容實(shí)時(shí)決定。這是和mHC最本質(zhì)的區(qū)別:mHC的權(quán)重訓(xùn)練完就定了,AttnRes的權(quán)重是活的。

這讓我想到普魯斯特?!蹲窇浰扑耆A》里Marcel嘗到瑪?shù)律彽案饨诓枥锏奈兜?,童年的貢布雷整個(gè)涌上來(lái)——不是模糊的印象,而是精確的感知,繞過(guò)了所有中間的敘事鏈條。普魯斯特管這叫「非自愿記憶」:不是你主動(dòng)去回憶,而是被某個(gè)感覺(jué)直接觸發(fā),直接抵達(dá)。

標(biāo)準(zhǔn)殘差更像正常人的有意識(shí)回憶——細(xì)節(jié)在層層傳遞中被壓縮、混合,你只能拿到一個(gè)抽象過(guò)的狀態(tài),原來(lái)的精確感知找不回來(lái)了。AttnRes給每一層裝上了一種工程化的普魯斯特能力:被當(dāng)前內(nèi)容觸發(fā),直接跳到任意前驅(qū)層的精確輸出,不經(jīng)過(guò)中間的壓縮鏈。

不過(guò)普魯斯特的非自愿記憶是不受控的,你不知道哪塊瑪?shù)律彽案鈺?huì)觸發(fā)什么。AttnRes用softmax加了方向——根據(jù)當(dāng)前內(nèi)容,決定最需要回頭取哪一層的東西。這是普魯斯特沒(méi)有給Marcel的:有方向的精確記憶。

兩種方案的本質(zhì)差異

把兩個(gè)方案放在一起,差異很直觀:

DeepSeek mHC

Kimi AttnRes

改的是什么

連接權(quán)重的學(xué)習(xí)方式

信息流的結(jié)構(gòu)

權(quán)重是活的還是死的

訓(xùn)練完就固定

每次處理不同輸入都不同

能看到什么

只能看到上一層的混合狀態(tài)

可以直接看所有之前層的原始輸出

解決了什么

權(quán)重太死板

不能點(diǎn)菜 + 后面層越來(lái)越難發(fā)聲

論文里有一個(gè)消融實(shí)驗(yàn)特別直接:如果讓模型能看到所有之前層的輸出,但權(quán)重是固定的(訓(xùn)練完就不變),效果和原來(lái)幾乎一樣,沒(méi)有提升。但換成動(dòng)態(tài)權(quán)重(根據(jù)當(dāng)前內(nèi)容實(shí)時(shí)決定),性能就明顯提升了。

結(jié)論很清楚:光是「能回頭看」不夠,必須是「根據(jù)內(nèi)容動(dòng)態(tài)地回頭看」才有價(jià)值。

Block AttnRes:工程上怎么落地

理想狀態(tài)下,每一層都能直接回頭看所有之前層的輸出(Full AttnRes)。但對(duì)于100多層的模型,這意味著要把所有層的輸出都存著,內(nèi)存吃不消。

Kimi的工程方案是Block AttnRes:把所有層分成大約8個(gè)「塊」,塊內(nèi)還是用標(biāo)準(zhǔn)殘差做累加,塊與塊之間用注意力。

這樣需要記住的東西從「每一層的輸出」縮減到「每個(gè)塊的匯總」,內(nèi)存占用大幅下降。

性能損失多少?幾乎可以忽略。大約8個(gè)塊就能恢復(fù)絕大部分收益。而且工程代價(jià)比mHC還低——訓(xùn)練額外開(kāi)銷(xiāo)不超過(guò)4%,推理延遲增加不超過(guò)2%。

效果怎么樣

實(shí)驗(yàn)在Kimi自家的48B參數(shù)模型上驗(yàn)證。

先說(shuō)最直觀的一個(gè)數(shù)字:用同樣的算力,AttnRes達(dá)到了標(biāo)準(zhǔn)方法需要多燒25%算力才能達(dá)到的性能。換句話(huà)說(shuō),不加機(jī)器、不加數(shù)據(jù),只改信息流的結(jié)構(gòu),就能白賺25%的算力效果。


下游任務(wù)的提升也很顯著,尤其是推理類(lèi)任務(wù):

  • GPQA-Diamond(研究生級(jí)別的科學(xué)推理):36.9 → 44.4,提了7.5個(gè)點(diǎn)

  • 數(shù)學(xué):53.5 → 57.1

  • 代碼:59.1 → 62.2

  • 中文理解(C-Eval):79.6 → 82.5

推理任務(wù)提升最大,這說(shuō)得通——多步推理需要不同層之間緊密協(xié)作,正是信息流改善受益最大的場(chǎng)景。

訓(xùn)練過(guò)程也更健康了。之前說(shuō)的「越來(lái)越吵的房間」問(wèn)題,在AttnRes下被明顯緩解:每層的信號(hào)量級(jí)不再單調(diào)遞增,而是保持在一個(gè)有界的范圍內(nèi)。每一層都能得到合理的學(xué)習(xí)信號(hào),不再出現(xiàn)「前面的層學(xué)得好,后面的層被淹沒(méi)」的情況。

模型自己學(xué)到了什么

訓(xùn)練好之后,Kimi可視化了模型「回頭看」的模式——每一層到底在關(guān)注哪些前面的層。


三個(gè)有意思的發(fā)現(xiàn):

大部分時(shí)候,還是看最近的鄰居。 標(biāo)準(zhǔn)殘差的「只看上一層」并不是完全錯(cuò)的,模型自己學(xué)出來(lái)的結(jié)果也是以鄰近層為主。

但最原始的輸入一直沒(méi)被忘掉。 即使到了模型最深的層,對(duì)最開(kāi)頭輸入的注意力權(quán)重都不是零。標(biāo)準(zhǔn)殘差下這個(gè)原始輸入早就被稀釋得找不到了,AttnRes讓深層可以隨時(shí)回頭翻看它。

模型自己發(fā)明了「捷徑」。 某些層會(huì)跳過(guò)中間,直接關(guān)注很早期的某些層。這不是人工設(shè)計(jì)的,是訓(xùn)練中模型自己發(fā)現(xiàn)的信息通路。

還有一個(gè)細(xì)節(jié):模型里不同類(lèi)型的層,「回頭看」的習(xí)慣明顯不同。有些層看得遠(yuǎn),有些層只看最近幾層。AttnRes讓它們各自找到了最適合自己的信息來(lái)源——這在標(biāo)準(zhǔn)殘差下是不可能的,因?yàn)樗袑幽玫降亩际峭环莼旌蠣顟B(tài)。

往大了說(shuō)

兩家發(fā)現(xiàn)了同一個(gè)被忽視的方向,但出發(fā)點(diǎn)不同,解法不同,解決的東西也不完全重疊。

mHC的核心是:讓連接權(quán)重可學(xué)習(xí),并且穩(wěn)定。但每一層拿到的信息源還是混合過(guò)的,而且權(quán)重訓(xùn)練完就固定了。

AttnRes的核心是:讓每一層可以直接回頭看所有前面層的原始輸出,根據(jù)當(dāng)前內(nèi)容實(shí)時(shí)決定看哪里。解決的是更根本的問(wèn)題。

論文結(jié)論里說(shuō):現(xiàn)在的Block AttnRes是工程折中,隨著硬件進(jìn)步,最終會(huì)走向每層都能回頭看所有層的Full AttnRes。

還有一個(gè)實(shí)驗(yàn)我覺(jué)得最值得關(guān)注:Kimi測(cè)試了25種不同的模型架構(gòu)配置,發(fā)現(xiàn)用了AttnRes之后,最優(yōu)的模型設(shè)計(jì)從「寬而淺」變成了「窄而深」。之前模型不敢做太深,因?yàn)樯盍酥蠛竺娴膶釉絹?lái)越難學(xué)到東西。AttnRes解決了這個(gè)問(wèn)題,讓「加深度」重新變成了有效的手段。

這不只是給現(xiàn)有架構(gòu)加了個(gè)性能插件,而是重新開(kāi)放了模型設(shè)計(jì)的一個(gè)維度。

想想大多數(shù)團(tuán)隊(duì)在做什么:更好的訓(xùn)練數(shù)據(jù)、更長(zhǎng)的上下文、更大的MoE、更聰明的推理策略。這些都有價(jià)值,但都是在「層間連接就是固定累加」這個(gè)前提下做優(yōu)化。選擇回到最底層的基礎(chǔ)結(jié)構(gòu)去找根本性突破,需要兩個(gè)條件同時(shí)滿(mǎn)足——技術(shù)判斷力(看出哪些「默認(rèn)配置」其實(shí)可以改),和工程實(shí)力(在大規(guī)模訓(xùn)練上證明它真的有效,不是玩具實(shí)驗(yàn))。這兩個(gè)條件同時(shí)具備的團(tuán)隊(duì),全球范圍內(nèi)都是稀缺的。

過(guò)去幾年大模型的架構(gòu)創(chuàng)新主要發(fā)生在上層模塊——Attention機(jī)制的各種變體、MoE的路由策略、位置編碼的改進(jìn)。殘差連接一直待在最底層,被當(dāng)作「默認(rèn)配置」,沒(méi)人覺(jué)得需要碰它?,F(xiàn)在DeepSeek和Kimi先后在這里找到了突破口,說(shuō)明一個(gè)趨勢(shì):架構(gòu)優(yōu)化的前沿已經(jīng)從上層模塊深入到了最基礎(chǔ)的信號(hào)傳遞結(jié)構(gòu)。

《Attention Is All You Need》當(dāng)年把序列維度從遞推升級(jí)到了注意力。但那篇論文里的殘差連接——深度維度上的信息流——依然用的是2015年的固定累加。這個(gè)未完成的工作等了九年。

馬斯克的「Impressive work」不只是一句客套。當(dāng)這個(gè)級(jí)別的人公開(kāi)點(diǎn)贊一篇基礎(chǔ)架構(gòu)論文,釋放的信號(hào)是:深度學(xué)習(xí)的底層范式本身在發(fā)生變化,值得關(guān)注的不只是論文里的具體數(shù)字,而是它指向的方向。

殘差連接被當(dāng)作默認(rèn)配置用了十年。三個(gè)月內(nèi),兩家中國(guó)實(shí)驗(yàn)室先后在這個(gè)最基礎(chǔ)的地方找到了根本性突破。

參考資料:

  • Attention Residuals技術(shù)報(bào)告:https://github.com/MoonshotAI/Attention-Residuals

  • DeepSeekmHC論文:https://arxiv.org/abs/2512.24880

  • Kimi Linear架構(gòu)報(bào)告:https://arxiv.org/abs/2510.26692

  • Attention Is All You Need:https://arxiv.org/abs/1706.03762

@Kimi 用我奶奶也能懂的語(yǔ)言解釋下這篇論文:

大模型就像一棟100層的大樓,每一層的工人干完活,把成果交給下一層。 過(guò)去十年,傳遞方式都是「流水賬」——每一層只能看到上一層遞過(guò)來(lái)的一份混合文件,前面誰(shuí)寫(xiě)了什么、寫(xiě)得好不好,全攪在一起了,找不回來(lái)。 Kimi做的事情是給每一層裝了一部電話(huà)?,F(xiàn)在第100層的工人如果覺(jué)得「第3層當(dāng)時(shí)算的那個(gè)數(shù)據(jù)我現(xiàn)在要用」,可以直接打電話(huà)回去查,不用再翻那份被改了97遍的混合文件。 而且每個(gè)工人會(huì)根據(jù)自己手頭的任務(wù),自己決定打給誰(shuí)——不是固定的,是看情況來(lái)的。 就這么一個(gè)改動(dòng),同樣的機(jī)器、同樣的數(shù)據(jù),模型性能白賺了25%。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
一周最少8次,54歲女子肛裂住院,丈夫哭訴:怎么勸她就是不聽(tīng)!

一周最少8次,54歲女子肛裂住院,丈夫哭訴:怎么勸她就是不聽(tīng)!

健康之光
2026-04-13 09:01:59
304萬(wàn)億,我國(guó)的貨幣發(fā)行總量已經(jīng)是世界第一了。

304萬(wàn)億,我國(guó)的貨幣發(fā)行總量已經(jīng)是世界第一了。

流蘇晚晴
2025-11-18 20:20:14
睡一覺(jué)5萬(wàn)沒(méi)了!全國(guó)多地爆發(fā)新型盜刷,睡前必查手機(jī)這4處

睡一覺(jué)5萬(wàn)沒(méi)了!全國(guó)多地爆發(fā)新型盜刷,睡前必查手機(jī)這4處

洞見(jiàn)小能手
2026-04-20 16:03:26
茅臺(tái)不行了,貴州靠什么?

茅臺(tái)不行了,貴州靠什么?

BT財(cái)經(jīng)
2026-04-21 22:25:03
收拾完伊朗,下一個(gè)輪到中國(guó)?以色列發(fā)戰(zhàn)爭(zhēng)威脅,中方送出5個(gè)字

收拾完伊朗,下一個(gè)輪到中國(guó)?以色列發(fā)戰(zhàn)爭(zhēng)威脅,中方送出5個(gè)字

千羽解讀
2026-04-18 10:12:15
叔本華:性欲是一切欲望的焦點(diǎn)

叔本華:性欲是一切欲望的焦點(diǎn)

聽(tīng)哲學(xué)
2026-03-24 21:42:04
寧波K11是不是要涼了?曾經(jīng)受萬(wàn)眾矚目的商業(yè)廣場(chǎng)

寧波K11是不是要涼了?曾經(jīng)受萬(wàn)眾矚目的商業(yè)廣場(chǎng)

石辰搞笑日常
2026-04-21 12:04:32
澤連斯基怒批特朗普:烏克蘭之所以打不贏俄羅斯,全是你幫倒忙

澤連斯基怒批特朗普:烏克蘭之所以打不贏俄羅斯,全是你幫倒忙

流年恰似繁花汐
2026-04-21 18:00:40
警察絕對(duì)不能插手的5件事,真不能管,否則違法!

警察絕對(duì)不能插手的5件事,真不能管,否則違法!

細(xì)說(shuō)職場(chǎng)
2026-04-20 15:52:21
中央5臺(tái)直播乒乓球時(shí)間表:4月21日CCTV5直播國(guó)乒!附國(guó)乒新消息

中央5臺(tái)直播乒乓球時(shí)間表:4月21日CCTV5直播國(guó)乒!附國(guó)乒新消息

生活新鮮市
2026-04-21 17:13:40
王立群教授:用權(quán)力泡女人,女人在你面前服服帖帖,用金錢(qián)泡女人,女人是滿(mǎn)臉不服氣,甚至討價(jià)還價(jià)...

王立群教授:用權(quán)力泡女人,女人在你面前服服帖帖,用金錢(qián)泡女人,女人是滿(mǎn)臉不服氣,甚至討價(jià)還價(jià)...

深度知局
2026-04-08 07:41:14
其實(shí)任何一個(gè)女人,都希望得到男人的青睞和認(rèn)可

其實(shí)任何一個(gè)女人,都希望得到男人的青睞和認(rèn)可

加油丁小文
2026-04-21 07:00:12
新一輪四大名著翻拍潮來(lái)了,高希希和正午陽(yáng)光正面競(jìng)爭(zhēng)《三國(guó)》

新一輪四大名著翻拍潮來(lái)了,高希希和正午陽(yáng)光正面競(jìng)爭(zhēng)《三國(guó)》

歪歌社團(tuán)
2026-04-17 01:45:20
23日冷空氣后,還有2波大范圍雨水,雨要下到5月4號(hào)立夏之后?

23日冷空氣后,還有2波大范圍雨水,雨要下到5月4號(hào)立夏之后?

風(fēng)云圈天氣
2026-04-22 00:25:02
突然調(diào)整!南京多所新建學(xué)校改建、緩建、停建!

突然調(diào)整!南京多所新建學(xué)校改建、緩建、停建!

南京擇校
2026-04-21 10:57:34
與李晨分手6年后嫁普通人,以為是好牌打爛,其實(shí)她才是人生贏家

與李晨分手6年后嫁普通人,以為是好牌打爛,其實(shí)她才是人生贏家

悅君兮君不知
2026-04-20 21:07:31
毛主席給救命恩人敬酒,不由得搖了搖頭:你不是當(dāng)年背我的那個(gè)人

毛主席給救命恩人敬酒,不由得搖了搖頭:你不是當(dāng)年背我的那個(gè)人

大運(yùn)河時(shí)空
2026-04-21 12:20:03
14億人都不會(huì)忘卻!揭開(kāi)核酸大王張核子的真面具:權(quán)力變現(xiàn)大公

14億人都不會(huì)忘卻!揭開(kāi)核酸大王張核子的真面具:權(quán)力變現(xiàn)大公

大魚(yú)簡(jiǎn)科
2026-02-07 09:52:29
事實(shí)證明,面館只是表象,離婚多年的文章,終于找到了自己翻身路

事實(shí)證明,面館只是表象,離婚多年的文章,終于找到了自己翻身路

趣味萌寵的日常
2026-04-20 19:49:54
提幫功放假返回泰國(guó),帶朋友海邊度假,瘦了白了有西拉米美貌加成

提幫功放假返回泰國(guó),帶朋友海邊度假,瘦了白了有西拉米美貌加成

可樂(lè)談情感
2026-04-19 20:55:49
2026-04-22 04:51:00
AI進(jìn)化論花生 incentive-icons
AI進(jìn)化論花生
AI博主,AppStore付費(fèi)榜第一的小貓補(bǔ)光燈app開(kāi)發(fā)者
189文章數(shù) 111關(guān)注度
往期回顧 全部

科技要聞

創(chuàng)造4萬(wàn)億帝國(guó)、訪華20次,庫(kù)克留下了什么

頭條要聞

三國(guó)取消飛航許可 賴(lài)清德無(wú)法竄訪斯威士蘭

頭條要聞

三國(guó)取消飛航許可 賴(lài)清德無(wú)法竄訪斯威士蘭

體育要聞

一到NBA季后賽,四屆DPOY就成了主角

娛樂(lè)要聞

宋承炫曬寶寶B超照,宣布老婆懷孕

財(cái)經(jīng)要聞

現(xiàn)實(shí)是最大的荒誕:千億平臺(tái)的沖突始末

汽車(chē)要聞

全新坦克700正式上市 售價(jià)42.8萬(wàn)-50.8萬(wàn)元

態(tài)度原創(chuàng)

游戲
數(shù)碼
家居
本地
軍事航空

漲價(jià)兩周即回調(diào)!索尼官方PS5數(shù)字版定價(jià)重回399美元

數(shù)碼要聞

大疆DJI Mic Mini 2發(fā)布:329元起 可更換麥克風(fēng)磁吸前蓋

家居要聞

詩(shī)意光影 窺見(jiàn)自然之境

本地新聞

春色滿(mǎn)城關(guān)不?。座N梅浪漫盛放,吳山藏了一片四月雪

軍事要聞

特朗普公開(kāi)對(duì)伊開(kāi)戰(zhàn)真正原因

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版