国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

加州大學圣地亞哥分校用動力系統(tǒng)理論馴服循環(huán)神經(jīng)網(wǎng)絡(luò)不穩(wěn)定性

0
分享至


這項由加州大學圣地亞哥分校(University of California, San Diego)與Together AI聯(lián)合開展的研究,發(fā)表于2026年4月的arXiv預印本平臺,論文編號為arXiv:2604.12946v1,收錄于cs.LG(機器學習)方向。有興趣深入了解的讀者可通過該編號查詢完整論文。

**一、一塊芯片能跑多強的大腦?讓AI"原地踏步"反而變強的秘密**

當我們談?wù)揂I變得更聰明時,腦海中浮現(xiàn)的畫面往往是一臺越來越大的機器——更多的參數(shù)、更多的層數(shù)、更多的芯片堆砌。這就好比你想讓廚房做出更好的菜,方法只有一個:把廚房擴建得更大,買更多的鍋碗瓢盆。然而這條路終究有盡頭。當AI模型越來越龐大,把它們部署到手機、平板乃至小型邊緣設(shè)備上就會變得極其困難,因為這些設(shè)備的內(nèi)存和計算資源是有限的。

這項研究的出發(fā)點正是這個現(xiàn)實困境:有沒有辦法在不增加參數(shù)(不擴建廚房)的前提下,讓AI變得更聰明?研究團隊給出的答案是——讓AI反復"咀嚼"同一塊內(nèi)容。具體來說,就是讓神經(jīng)網(wǎng)絡(luò)的某些層在處理一段數(shù)據(jù)時不是經(jīng)歷一次就算了,而是繞圈子、循環(huán)地走過同樣的層好幾遍,每次都能基于上一輪的理解再深入一層。這就像一個廚師在同一口鍋里反復翻炒,而不是用更多的鍋同時操作。這類模型被稱為"循環(huán)(looped)架構(gòu)",而研究團隊提出的新方法就叫做**Parcae**,名字來自羅馬神話中掌控命運線的三位命運女神。

然而這條路并不平坦。在此之前,已有研究者嘗試過這種循環(huán)架構(gòu),但訓練過程極不穩(wěn)定——模型時常崩潰,損失值突然飆升,就像那口反復翻炒的鍋突然燒穿了底一樣。沒有人能清楚地說明,究竟是什么原因讓這口鍋如此脆弱。正是這個尚未解答的問題,驅(qū)使這支團隊展開了這項研究。

**二、問題的根源:那口鍋為什么總在燒穿?**

要修好一口反復翻炒會燒穿的鍋,首先得弄清楚它為什么會燒穿。研究團隊采用了一個來自工程控制領(lǐng)域的經(jīng)典工具——**線性時不變系統(tǒng)(LTI系統(tǒng))**的分析框架。這聽起來很學術(shù),但核心思路其實非常直白:把AI模型內(nèi)部的信息流動,看成一條隨時間演化的"水流",然后分析這條水流在反復循環(huán)過程中會不會越流越大、直到?jīng)Q堤。

具體來說,當信息在循環(huán)層中不斷流動時,每一次循環(huán)都可以用一個簡化的數(shù)學公式來描述:新的狀態(tài)等于"舊狀態(tài)乘以一個矩陣A,再加上輸入信號乘以一個矩陣B"。這里的矩陣A就像一個"放大器"——它決定了信息在每一輪循環(huán)后會被放大、縮小還是保持不變。

控制理論早就告訴我們,這個放大器有一個關(guān)鍵性質(zhì),叫做**譜范數(shù)**(可以通俗地理解為這個矩陣能把向量放大的最大倍數(shù))。如果譜范數(shù)大于1,信息就會在每輪循環(huán)中持續(xù)放大,最終變成天文數(shù)字,導致整個系統(tǒng)崩潰——這就是研究者們觀察到的"殘差狀態(tài)爆炸"現(xiàn)象。如果譜范數(shù)等于1,系統(tǒng)處于一種勉強穩(wěn)定的臨界狀態(tài),隨時可能失控。只有譜范數(shù)嚴格小于1,信息流才會在循環(huán)過程中逐漸收斂,就像一個穩(wěn)定振蕩最終趨于平靜的秋千。

研究團隊對此前已有的幾種循環(huán)注入方式進行了分析,發(fā)現(xiàn)了令人擔憂的結(jié)論。其中一種采用"加法注入"的方法(即把輸入直接加到隱藏狀態(tài)上),其矩陣A實際上就是單位矩陣I,譜范數(shù)恰好等于1,處于臨界不穩(wěn)定狀態(tài)。另一種采用"拼接投影"的方法,其矩陣A是一個完全不受約束的可學習矩陣,譜范數(shù)可以任意大,穩(wěn)定性完全依賴于訓練過程中的運氣。

實驗數(shù)據(jù)清晰地印證了這一分析。研究團隊在不同學習率下訓練這些模型,觀察到:凡是發(fā)散的訓練運行,其矩陣A的譜范數(shù)都會超過1;而那些勉強收斂的運行,譜范數(shù)始終保持在1以下。這就像在實驗室里清楚地看到,水溫超過100攝氏度就沸騰一樣直接。與此同時,即便是那些沒有完全發(fā)散的訓練,在長時間訓練后(比如超過17萬步之后)仍然會出現(xiàn)損失值突然抖動的現(xiàn)象,說明問題并未從根本上解決。

**三、Parcae的設(shè)計:給那口鍋加上一個溫度調(diào)節(jié)器**

既然問題已經(jīng)找到,解決方案就有了明確的方向:必須從架構(gòu)層面約束矩陣A的譜范數(shù),使其始終小于1,而不是依靠運氣或者復雜的超參數(shù)調(diào)整來維持穩(wěn)定。

研究團隊采用的具體方案有幾個環(huán)環(huán)相扣的設(shè)計。首先,他們把矩陣A設(shè)計成一個**負對角矩陣**的離散化形式。所謂負對角矩陣,就是只有對角線上有值(其余全為零),而且每個對角線上的值都是負數(shù)。這樣的矩陣天然保證了其特征值為負數(shù),經(jīng)過指數(shù)函數(shù)映射(離散化步驟)之后,所有特征值都落在0到1之間,譜范數(shù)自然嚴格小于1。這就好比在放大器上安裝了一個硬性限流器,無論外部條件怎么變化,電流都不會超過安全上限。具體的數(shù)學形式是:A := Diag(–exp(log A)),其中l(wèi)og A是可學習的參數(shù)向量,整個結(jié)構(gòu)通過零階保持(ZOH)方案進行離散化,而矩陣B則采用歐拉方案離散化,搭配一個可學習的步長參數(shù)Δ。

其次,為了解決那種在訓練后期出現(xiàn)的損失抖動問題,研究團隊在輸入信號e進入循環(huán)層之前加入了一個**歸一化層(Prelude Norm)**。這相當于在食材入鍋之前先統(tǒng)一切成相同大小,防止某塊過大的食材突然把鍋撐壞。這個設(shè)計的必要性在1.3B參數(shù)規(guī)模的大模型訓練中尤為突出——在沒有歸一化保護的情況下,模型在訓練到約15萬步后開始出現(xiàn)狀態(tài)爆炸,進一步追蹤發(fā)現(xiàn)爆炸的根源正是預處理塊輸出的數(shù)值過大,而歸一化層直接切斷了這一隱患。

第三個改進來自訓練算法層面。在訓練循環(huán)模型時,每個批次(batch)中循環(huán)次數(shù)T是隨機采樣的,目的是讓模型既能應(yīng)對少量循環(huán)(快速推理),也能利用多次循環(huán)(深度推理)。以往的做法是整個批次共用一個循環(huán)次數(shù),這就像一桌人只能點同一道菜——有的人吃撐了,有的人沒吃飽。Parcae引入了**逐序列深度采樣**,即同一個批次里,每條序列可以被分配不同的循環(huán)次數(shù),就像每個人各自點菜。實驗表明,這一改進能顯著減少訓練過程中的損失抖動,尤其提升了在低循環(huán)次數(shù)下的測試性能。

此外,研究團隊還糾正了此前一個微妙但重要的采樣偏差。在先前的工作中,循環(huán)次數(shù)T的采樣方式實際上是先從分布中采樣一個"無梯度步驟數(shù)"n,再固定加上一個"有梯度步驟數(shù)"μbwd,導致實際的總循環(huán)分布被壓縮和偏移,并不等于原本希望的目標分布。新方法改為直接從目標分布中采樣總循環(huán)次數(shù)T,再根據(jù)T和μbwd推算無梯度步驟數(shù),兩者相互解耦,分布得以忠實還原。這一改變對于訓練后模型在測試時使用不同循環(huán)次數(shù)的泛化能力有顯著改善,尤其是在使用比訓練時更少或更多循環(huán)次數(shù)的情況下。

**四、和前輩們的對比:Parcae到底強在哪里?**

研究團隊從兩個維度對Parcae進行了全面評估:一是和同類循環(huán)架構(gòu)的比較,二是和固定深度的標準Transformer的比較。

在與同類循環(huán)架構(gòu)的比較中,Parcae對標的是Geiping等人提出的RDM(循環(huán)深度模型)。在100M和350M參數(shù)規(guī)模下,以完全相同的數(shù)據(jù)量進行訓練,Parcae在保留驗證集上的困惑度(一種衡量語言模型預測準確性的指標,數(shù)值越低越好,可以理解為模型"猜對下一個詞"的能力)分別降低了約6.2%和6.3%,在WikiText基準上分別降低了4.9%和9.1%。更直觀的是,Parcae還在Hellaswag、ARC、PIQA、BoolQ、SciQ等多個常識推理下游任務(wù)上平均提升了約1.8個百分點的準確率。更重要的是,穩(wěn)定性對比如同天壤之別:在相同設(shè)置下,RDM在多個學習率下無法收斂,而Parcae在從2e-4到1e-3的全部學習率設(shè)置下均能穩(wěn)定訓練,對超參數(shù)的魯棒性遠超先前方法。

在與固定深度Transformer的比較中,實驗覆蓋了140M、370M、770M、1.3B四個參數(shù)規(guī)模,采用完全相同的數(shù)據(jù)量和超參數(shù)(超參數(shù)基于Transformer進行調(diào)優(yōu),Parcae直接沿用,并未另行調(diào)參)。在所有規(guī)模上,Parcae的驗證困惑度均低于同等規(guī)模的Transformer,降幅在4.3%到9.2%之間。在Core和Core-Extended兩個綜合下游評測基準上,Parcae的得分分別比同規(guī)模Transformer高出最多2.99分和1.18分。尤其引人注目的是,770M參數(shù)的Parcae在Core基準上的得分與1.3B參數(shù)的Transformer相當——用大約一半的參數(shù)量達到了同等的實際能力水平。如果用"參數(shù)效率"來量化(即縮小了多少與下一個更大規(guī)模模型之間的性能差距),Parcae在Core基準上的參數(shù)效率提升幅度在23.3%到87.5%之間。

**五、循環(huán)就是一種新的"擴展軸":計算預算該怎么分配?**

在確認Parcae能在固定參數(shù)下超越Transformer之后,研究團隊把目光投向了一個更宏觀的問題:在給定固定的總計算預算(FLOPs)和固定參數(shù)量的情況下,把計算投入到"更多數(shù)據(jù)"上更好,還是投入到"更多循環(huán)次數(shù)"上更好?換句話說,這兩種"投資方向"的最優(yōu)比例是什么?

這本質(zhì)上是在問:循環(huán)次數(shù)是不是一個獨立的、可以規(guī)律性預測的擴展維度,就像參數(shù)量和數(shù)據(jù)量那樣?

研究團隊在140M和370M兩個規(guī)模上,系統(tǒng)地訓練了大量模型,每個模型使用不同的訓練循環(huán)次數(shù)μrec(范圍從2到12),同時相應(yīng)調(diào)整訓練數(shù)據(jù)量以保持總FLOPs不變。結(jié)果呈現(xiàn)出非常清晰的規(guī)律:對于每一個固定的FLOPs預算,存在一個最優(yōu)的循環(huán)次數(shù),在這個循環(huán)次數(shù)下驗證損失最低;增加循環(huán)次數(shù)的同時減少相應(yīng)數(shù)據(jù)量,比單純增加數(shù)據(jù)量(固定循環(huán)次數(shù)為1)能達到更低的損失。這說明循環(huán)確實是一個正交的(獨立的)擴展軸。

更進一步,研究團隊擬合了兩條冪律(power law)曲線,分別描述最優(yōu)循環(huán)次數(shù)和最優(yōu)訓練數(shù)據(jù)量如何隨FLOPs預算的增加而增長。結(jié)果顯示,最優(yōu)循環(huán)次數(shù)大約按照FLOPs的0.40次方增長(在140M和370M上分別為0.40和0.38,高度一致),最優(yōu)數(shù)據(jù)量大約按照FLOPs的0.77到0.78次方增長。這意味著隨著計算預算的增加,應(yīng)該同步增加循環(huán)次數(shù)和數(shù)據(jù)量,但數(shù)據(jù)量應(yīng)該增長得更快一些(指數(shù)0.78對比0.40)。這個發(fā)現(xiàn)的重要性在于它的可預測性——你可以依據(jù)公式提前規(guī)劃,而不是靠經(jīng)驗摸索。

研究團隊還擬合了一個參數(shù)化的預測函數(shù),形式為:預測損失 = E + X × N(μrec)^(-x) + Y × D^(-y),其中N(μrec)是將循環(huán)展開后的等效參數(shù)量,D是訓練數(shù)據(jù)量。用這個函數(shù)預測第五節(jié)中那些"留出"模型(參見第四節(jié)的實驗模型)的驗證損失,在140M和370M規(guī)模上的預測誤差分別僅為1.3%和0.8%,驗證了該函數(shù)的外推能力。

在下游評測任務(wù)上,最優(yōu)循環(huán)策略相比于"只用更多數(shù)據(jù)"(固定循環(huán)次數(shù)為1)的策略,在Core和Core-Extended兩個綜合基準上的得分高出1.2到2.0分,進一步佐證了循環(huán)作為獨立擴展軸的價值。

**六、測試時也能"越想越準":但有上限,而且上限是可以預測的**

除了訓練時擴展FLOPs的規(guī)律,研究團隊還研究了另一個問題:訓練完成后,在測試(推理)階段讓模型多循環(huán)幾次,能不能讓它表現(xiàn)更好?

答案是肯定的,但有一個重要的"但是"——收益是有上限的,而且這個上限與訓練時使用的循環(huán)次數(shù)密切相關(guān)。

研究團隊把第四節(jié)中的四個規(guī)模模型(140M、370M、770M、1.3B)在測試階段使用的循環(huán)次數(shù)從1一直增加到約μrec的兩倍(每個模型訓練時的均值循環(huán)次數(shù)μrec均為8)。結(jié)果顯示,性能隨著測試循環(huán)次數(shù)的增加而提升,但提升曲線是典型的"飽和型"——一開始提升較快,之后越來越慢,最終幾乎停止在一個固定水平附近。這個飽和水平大致對應(yīng)模型在訓練時所使用的最大循環(huán)次數(shù),說明訓練深度決定了測試時擴展的天花板。

對于這個飽和曲線,研究團隊發(fā)現(xiàn)一個非常簡潔的函數(shù)形式能夠精確描述它:L(T) = L∞ + Z × exp(–z × T),其中L∞是最終的不可約損失下界,Z和z是兩個形狀參數(shù),T是測試時的循環(huán)次數(shù)。這是一個標準的指數(shù)衰減函數(shù)——性能以指數(shù)速度向下界逼近。這個函數(shù)形式在所有測試循環(huán)次數(shù)和所有訓練深度配置下都擬合得非常好,平均擬合誤差僅為約2.5×10??(140M)和1.8×10??(370M)。

值得一提的是,這種指數(shù)衰減的形式與Parcae的動力系統(tǒng)框架之間存在一個耐人尋味的理論呼應(yīng):在經(jīng)典控制理論中,譜范數(shù)小于1的穩(wěn)定離散線性系統(tǒng)的狀態(tài)范數(shù)本身就以指數(shù)速度收斂。Parcae通過設(shè)計保證了譜范數(shù)小于1,而這一保證在理論層面與測試時觀察到的指數(shù)衰減規(guī)律形成了一致。當然,研究團隊也坦承,這種聯(lián)系目前還是推測性的,而非嚴格證明的。

**七、訓練與測試的"統(tǒng)一方程":把兩條規(guī)律合而為一**

擁有了訓練時的擴展規(guī)律和測試時的衰減規(guī)律之后,研究團隊進一步把它們整合成一個統(tǒng)一的預測公式,形式如下:

預測損失 = [訓練規(guī)律給出的損失下界] + Z × exp(–z × T / μrec)

其中,方括號內(nèi)的部分由訓練規(guī)律決定,是當測試循環(huán)次數(shù)T等于訓練均值μrec時預測的損失值;括號外的指數(shù)衰減項描述了從初始損失(T很小時)向這個下界逼近的過程;衰減速率被設(shè)計為與μrec成反比,即訓練時循環(huán)次數(shù)越多,測試時每增加一次循環(huán)的額外收益越小(衰減越慢),這也符合直覺。

用這個統(tǒng)一公式對第四節(jié)中那些留出的模型進行驗證,在140M和370M規(guī)模上預測測試時損失曲線的平均誤差分別為0.85%和1.31%。如果直接用模型在T=μrec處的實測損失代替訓練規(guī)律的預測值(相當于消除訓練規(guī)律的約1%預測誤差),誤差進一步降至0.10%到0.17%,說明統(tǒng)一公式中的測試時衰減部分本身是高度準確的,整體誤差幾乎全部來自訓練規(guī)律的外推偏差。

這條統(tǒng)一方程的意義在于:給定一個模型的參數(shù)規(guī)模、訓練數(shù)據(jù)量和訓練循環(huán)次數(shù),你可以在不實際運行模型的情況下,預測它在任意測試循環(huán)次數(shù)下的大致性能,從而在設(shè)計階段就優(yōu)化訓練與推理的資源分配決策。

**八、局限與未來:這口鍋還能做哪些菜?**

研究團隊對這項工作的局限性做出了坦誠的說明。目前所有的擴展規(guī)律實驗都在140M和370M參數(shù)規(guī)模下進行,尚未驗證這些規(guī)律能否平滑地外推到更大的模型和更高的FLOPs預算。此外,當前的循環(huán)次數(shù)均在個位數(shù)到十幾次的范圍內(nèi),對"極端循環(huán)"(比如均值循環(huán)次數(shù)達到幾十甚至上百次)的行為還不清楚。在架構(gòu)層面,目前的A矩陣采用對角負矩陣這一簡單形式,未來可以探索全秩參數(shù)化、不同的離散化方案以及不同的循環(huán)更新規(guī)則,以支持更深的循環(huán)深度。最后,一個值得關(guān)注的實際限制是:隨著訓練時均值循環(huán)次數(shù)μrec的增加,在測試時需要更多循環(huán)次數(shù)才能達到等效質(zhì)量,這增加了推理延遲,如何在保持質(zhì)量的同時減少推理時所需循環(huán)次數(shù)是一個開放的工程挑戰(zhàn)。

說到底,這項研究用一個來自工程控制領(lǐng)域的古老理論——線性時不變系統(tǒng)的穩(wěn)定性分析——為深度學習領(lǐng)域一個長期懸而未決的實際問題給出了清晰的診斷和處方。那口反復翻炒的鍋之所以總在燒穿,根本原因就是"放大器"沒有被約束住;而Parcae做的事情,就是在鍋底裝了一個永遠不會超溫的調(diào)節(jié)器。

歸根結(jié)底,這項工作告訴我們:擴展AI能力不一定總是要買更大的鍋,有時候改造一下翻炒方式,在有限的廚房里也能做出令人滿意的大餐。對于那些資源受限但又希望部署更強AI能力的場景——邊緣設(shè)備、移動端應(yīng)用、低功耗服務(wù)器——這個方向提供了一條真實可行的技術(shù)路徑。

有興趣深入了解技術(shù)細節(jié)的讀者,可以通過論文編號arXiv:2604.12946在arXiv平臺上查閱完整原文。

Q&A

Q1:Parcae架構(gòu)為什么比普通循環(huán)架構(gòu)訓練更穩(wěn)定?

A:Parcae把循環(huán)過程中的"狀態(tài)轉(zhuǎn)移矩陣"A設(shè)計成負對角矩陣的離散化形式,從數(shù)學上保證了矩陣的譜范數(shù)始終嚴格小于1。譜范數(shù)小于1意味著每次循環(huán)信息不會被放大,只會逐漸收斂,避免了狀態(tài)爆炸。同時引入輸入歸一化層和逐序列深度采樣,進一步減少了訓練中的損失抖動,整體對超參數(shù)的魯棒性遠超先前方法。

Q2:循環(huán)架構(gòu)和普通增加模型層數(shù)有什么本質(zhì)區(qū)別?

A:普通增加層數(shù)意味著模型參數(shù)量增加,存儲和部署成本隨之上升。循環(huán)架構(gòu)是用同一組參數(shù)反復執(zhí)行多次,參數(shù)量不變但計算量增加。因此循環(huán)架構(gòu)更適合在有限內(nèi)存或低功耗設(shè)備上部署,而不需要把完整的多層模型全部加載進內(nèi)存。

Q3:Parcae的測試時循環(huán)次數(shù)越多效果是否會一直提升?

A:不會無限提升。研究發(fā)現(xiàn)測試時增加循環(huán)次數(shù)的收益會逐漸飽和,飽和水平大致對應(yīng)訓練時所用的最大循環(huán)次數(shù)。曲線符合指數(shù)衰減規(guī)律,即前幾次循環(huán)收益顯著,之后邊際收益迅速下降,最終趨近于一個由訓練深度決定的性能下界。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
NBA官方:弗拉格當選年度最佳新秀 成獨行俠隊史第三位獲獎?wù)?>
    </a>
        <h3>
      <a href=羅說NBA
2026-04-28 07:21:45
遼寧男籃1-0山東,郭艾倫一針見血道出遼籃內(nèi)線強大優(yōu)勢

遼寧男籃1-0山東,郭艾倫一針見血道出遼籃內(nèi)線強大優(yōu)勢

赫岝鄉(xiāng)村攝影
2026-04-29 03:34:08
一場1:1驗出海歸小將真成色 邵佳一發(fā)現(xiàn)新寶藏 國足鋒線又添猛人

一場1:1驗出海歸小將真成色 邵佳一發(fā)現(xiàn)新寶藏 國足鋒線又添猛人

零度眼看球
2026-04-28 06:46:34
阿聯(lián)酋退出歐佩克,直接讓全球能源圈來了個大震蕩!

阿聯(lián)酋退出歐佩克,直接讓全球能源圈來了個大震蕩!

利刃號
2026-04-28 22:23:41
7年敗光2億!鄒市明冉瑩穎共同發(fā)文:二人最終還是邁出了這一步!

7年敗光2億!鄒市明冉瑩穎共同發(fā)文:二人最終還是邁出了這一步!

拳擊時空
2026-04-16 06:04:48
世錦賽:趙心童連敗5局,黑馬激戰(zhàn)25局驚險晉級唯一

世錦賽:趙心童連敗5局,黑馬激戰(zhàn)25局驚險晉級唯一

小犙拍客在北漂
2026-04-29 03:02:30
21歲擊敗王菲的童顏巨乳富婆,巔峰期卻選擇主動過氣

21歲擊敗王菲的童顏巨乳富婆,巔峰期卻選擇主動過氣

悠悠說世界
2026-04-25 14:03:58
賴清德做夢都沒想到,鄭麗文的丈夫早被策反,臺獨情侶變統(tǒng)一夫妻

賴清德做夢都沒想到,鄭麗文的丈夫早被策反,臺獨情侶變統(tǒng)一夫妻

小楊侃事
2026-04-12 09:40:51
中央政治局會議穩(wěn)定軍心!兩天內(nèi)A股大盤將向上變盤!誰能領(lǐng)漲?

中央政治局會議穩(wěn)定軍心!兩天內(nèi)A股大盤將向上變盤!誰能領(lǐng)漲?

丁丁鯉史紀
2026-04-28 18:24:04
豆包提前查到事業(yè)編成績單,全網(wǎng)炸了!

豆包提前查到事業(yè)編成績單,全網(wǎng)炸了!

互聯(lián)網(wǎng)品牌官
2026-04-27 18:11:08
臺灣政壇徹底炸鍋!

臺灣政壇徹底炸鍋!

安安說
2026-04-28 10:56:05
聯(lián)想把用了20年的BIOS供應(yīng)商買回家了

聯(lián)想把用了20年的BIOS供應(yīng)商買回家了

薛定諤的BUG
2026-04-27 22:37:44
賴清德向大陸喊話,林佳龍返臺:機場大言不慚!解放軍打獨大動作

賴清德向大陸喊話,林佳龍返臺:機場大言不慚!解放軍打獨大動作

共工之錨
2026-04-28 15:40:37
遼寧省委書記、省長等共同巡看夜經(jīng)濟市集

遼寧省委書記、省長等共同巡看夜經(jīng)濟市集

蘭妮搞笑分享
2026-04-29 00:11:17
白鹿《跑男》發(fā)言引全網(wǎng)聲討,節(jié)目收視率刷新低

白鹿《跑男》發(fā)言引全網(wǎng)聲討,節(jié)目收視率刷新低

海外散修厲飛雨
2026-04-27 17:50:27
和前夫分道揚鑣后,她和9歲女兒相依為命,如今又成粉絲的意難平

和前夫分道揚鑣后,她和9歲女兒相依為命,如今又成粉絲的意難平

翰飛觀事
2026-04-26 14:55:41
帕勞通告全球,拒與臺灣“斷交”!話音剛落,大陸宣布統(tǒng)一后安排

帕勞通告全球,拒與臺灣“斷交”!話音剛落,大陸宣布統(tǒng)一后安排

厲羽萱
2026-04-29 00:28:09
為什么男人每次偷情要開房,女人每次偷情都在車里呢?

為什么男人每次偷情要開房,女人每次偷情都在車里呢?

思絮
2026-04-28 10:25:11
別再吹天生美貌!朱珠真實原生臉曝光,整容前后差距一目了然

別再吹天生美貌!朱珠真實原生臉曝光,整容前后差距一目了然

小娛樂悠悠
2026-04-27 09:21:13
5月1日正式開刀!3萬就立案,所有打工人都要警惕

5月1日正式開刀!3萬就立案,所有打工人都要警惕

洞見小能手
2026-04-27 21:17:44
2026-04-29 04:47:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8183文章數(shù) 563關(guān)注度
往期回顧 全部

科技要聞

10億周活目標落空!傳OpenAI爆發(fā)內(nèi)部分歧

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

體育要聞

魔術(shù)黑八活塞,一步之遙?!

娛樂要聞

蔡卓妍官宣結(jié)婚,老公比她小10歲

財經(jīng)要聞

中央政治局會議定調(diào),八大看點速覽!

汽車要聞

拒絕瘋狂套娃!現(xiàn)代艾尼氪金星長在未來審美點上

態(tài)度原創(chuàng)

旅游
手機
本地
藝術(shù)
公開課

旅游要聞

莫讓內(nèi)卷式競爭削弱旅游消費信心

手機要聞

三星裸眼3D屏來了,廣告牌能“跳”出來

本地新聞

用青花瓷的方式,打開西溪濕地

藝術(shù)要聞

京東浙江總部公示,99.99米高,中國第一民企落子民營大?。?/h3>

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版