国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

Sea AI Lab 揭秘:你費(fèi)盡心力調(diào)的 LLM 一直在崩潰?罪魁禍?zhǔn)卓赡苤皇且粋€(gè)參數(shù):BF16

0
分享至

來自 Sea AI Lab 和新加坡國(guó)立大學(xué)最新研究認(rèn)為在強(qiáng)化學(xué)習(xí)微調(diào)中普遍存在的訓(xùn)練不穩(wěn)定和性能瓶頸,其根源并非像先前研究所認(rèn)為的那樣,是復(fù)雜的算法設(shè)計(jì)缺陷,而是一個(gè)更基礎(chǔ)的因素——數(shù)值精度


論文矛頭直指當(dāng)前業(yè)界的標(biāo)準(zhǔn)配置 BF16。這個(gè)因其在預(yù)訓(xùn)練階段表現(xiàn)穩(wěn)定而備受青睞的格式,在精細(xì)的 RL 對(duì)齊過程中卻成了一個(gè)“累贅”。研究團(tuán)隊(duì)通過詳實(shí)的實(shí)驗(yàn)證明,BF16 的低精度會(huì)在模型的訓(xùn)練過程和實(shí)際的推理(或采樣)過程之間制造出一條關(guān)鍵的鴻溝。正是這個(gè)被稱為“訓(xùn)練-推理不匹配”(training-inference mismatch)的現(xiàn)象,導(dǎo)致了大量訓(xùn)練任務(wù)的失敗和崩潰。
而他們提出的解決方案,并非一個(gè)全新的復(fù)雜算法,而是回歸到一個(gè)更早的標(biāo)準(zhǔn):簡(jiǎn)單地將計(jì)算精度切換回具有更高精度的 FP16 格式。他們斷言,這一個(gè)微小的改動(dòng),幾乎可以從根本上消除不匹配問題,從而帶來更穩(wěn)定、更高效、性能更強(qiáng)的模型。

以下是論文詳細(xì)解讀:

RL 微調(diào)中的幽靈:訓(xùn)練-推理不匹配問題

強(qiáng)化學(xué)習(xí)已經(jīng)成為提升大型語(yǔ)言模型(LLMs)推理等高級(jí)能力的關(guān)鍵技術(shù)。然而,通往高性能模型的 RL 微調(diào)之路卻充滿了不確定性。訓(xùn)練過程常常極其敏感和不穩(wěn)定,容易出現(xiàn)性能突然下降甚至完全崩潰的情況,這使得穩(wěn)定地提升模型表現(xiàn)成為一項(xiàng)重大挑戰(zhàn)

論文指出,這種不穩(wěn)定性的一個(gè)關(guān)鍵來源,是現(xiàn)代 RL 框架中一個(gè)根本性的矛盾:訓(xùn)練-推理不匹配(training-inference mismatch)。

問題的成因

為了最大化效率,RL 框架通常會(huì)為兩個(gè)不同的階段配備不同的計(jì)算引擎

推理引擎:用于生成響應(yīng)(即 rollout 或稱“采樣”),這個(gè)過程需要極高的速度,因此會(huì)使用高度優(yōu)化的計(jì)算核心(kernels)

訓(xùn)練引擎:用于計(jì)算梯度并更新模型參數(shù),這個(gè)過程則側(cè)重于支持反向傳播等復(fù)雜運(yùn)算

盡管從數(shù)學(xué)原理上看,這兩個(gè)引擎在給定相同模型權(quán)重時(shí)應(yīng)該產(chǎn)生完全相同的輸出,但由于硬件層面的具體實(shí)現(xiàn)、并行策略和數(shù)值精度上的細(xì)微差異,它們實(shí)際的計(jì)算結(jié)果會(huì)存在微小的數(shù)值偏差。這種看似微不足道的差異,卻給優(yōu)化過程帶來了兩個(gè)嚴(yán)重的問題。

兩大核心困境

1.有偏梯度(Biased Gradient):在 RL 中,我們使用從推理策略 μ(由推理引擎執(zhí)行)采樣的數(shù)據(jù)來優(yōu)化訓(xùn)練策略 π(在訓(xùn)練引擎中定義)。當(dāng) π 和 μ 之間存在數(shù)值偏差時(shí)(即 π ≠ μ),如果我們直接使用這些樣本來計(jì)算梯度,而忽略了這個(gè)偏差,那么得到的梯度就是有偏的,它無法準(zhǔn)確地指向真正能提升模型性能的方向。這會(huì)誤導(dǎo)優(yōu)化過程,導(dǎo)致訓(xùn)練不穩(wěn)定。

2.部署差距(Deployment Gap):這是一個(gè)更隱蔽但同樣致命的問題。我們的模型參數(shù)是在訓(xùn)練引擎 π 的環(huán)境下進(jìn)行優(yōu)化的,目標(biāo)是最大化 π 的預(yù)期回報(bào)。然而,在模型最終部署應(yīng)用或進(jìn)行評(píng)估時(shí),我們使用的是推理引擎 μ。這意味著,即使我們找到了對(duì) π 而言的最優(yōu)參數(shù),這組參數(shù)對(duì)于實(shí)際使用的 μ 來說卻不一定是最優(yōu)的。這種差距會(huì)導(dǎo)致模型在真實(shí)場(chǎng)景中的表現(xiàn)低于訓(xùn)練時(shí)的預(yù)期。

現(xiàn)有解決方案的局限性

為了解決梯度偏差問題,先前的研究工作主要依賴于算法層面的“補(bǔ)丁”,其核心思想是重要性采樣(Importance Sampling, IS)。通過計(jì)算一個(gè)概率比率 π(y|x) / μ(y|x) 來重新加權(quán)梯度,可以在理論上得到一個(gè)無偏的梯度估計(jì)。然而,這些方法自身也帶來了新的挑戰(zhàn)。

高方差與慢收斂:對(duì)于長(zhǎng)序列的生成任務(wù),序列級(jí)別的重要性采樣比率方差極大,這會(huì)導(dǎo)致訓(xùn)練過程雖然穩(wěn)定,但收斂速度異常緩慢。為了緩解方差,研究者們提出了諸如截?cái)嘀匾圆蓸樱═runcated Importance Sampling, TIS)和掩碼重要性采樣(Masked Importance Sampling, MIS)等變體。這些方法通過引入少量偏差來?yè)Q取方-差的大幅降低,但它們并沒有完全解決問題。

計(jì)算效率低下:幾乎所有基于重要性采樣的修正方案,都需要額外進(jìn)行一次前向傳播來計(jì)算訓(xùn)練策略 π 的概率,以便得到重要性權(quán)重。假設(shè)一次反向傳播的計(jì)算成本是前向傳播的兩倍,這個(gè)額外的步驟會(huì)直接導(dǎo)致約 25% 的訓(xùn)練成本增加,對(duì)于大規(guī)模 RL 訓(xùn)練而言是難以接受的。

無法彌合部署差距:更重要的是,這些算法補(bǔ)丁的設(shè)計(jì)初衷只是為了修正訓(xùn)練過程中的梯度,它們本質(zhì)上仍然是在訓(xùn)練引擎 π 的框架下進(jìn)行優(yōu)化。因此,它們無法從根本上解決模型最終部署在推理引擎 μ 上時(shí)的性能損失問題。

綜上所述,現(xiàn)有的算法修正方案要么代價(jià)高昂,要么治標(biāo)不治本。這促使論文作者深入探究不匹配問題的根源,并最終將目光鎖定在了一個(gè)被長(zhǎng)期忽視的基礎(chǔ)層面——浮點(diǎn)數(shù)精度。

問題的根源:浮點(diǎn)數(shù)精度

論文的核心觀點(diǎn)在于,訓(xùn)練-推理不匹配的根本原因并非復(fù)雜的算法或工程實(shí)現(xiàn)差異,而是源于我們選擇的數(shù)值表示本身——即浮點(diǎn)數(shù)的精度。通過對(duì)比目前主流的兩種 16 位浮點(diǎn)格式 BF16 和 FP16,論文揭示了問題的本質(zhì)。

BF16 與 FP16 的對(duì)決

兩者都使用 16 個(gè)比特位來表示一個(gè)數(shù)字,但其內(nèi)部結(jié)構(gòu)分配截然不同,這導(dǎo)致了它們?cè)谔匦陨系木薮蟛町?/p>

BF16 :由 Google 推出,它分配了 8 位給指數(shù)部分(exponent),7 位給尾數(shù)部分(mantissa)

優(yōu)勢(shì):擁有和 32 位浮點(diǎn)數(shù)(FP32)相同的動(dòng)態(tài)范圍,這意味著它能表示極大和極小的數(shù)值,極不容易發(fā)生上溢(overflow)或下溢(underflow)。這使得模型訓(xùn)練過程非常穩(wěn)定,不易因數(shù)值問題中斷

劣勢(shì):尾數(shù)位非常少,導(dǎo)致其精度極低。在兩個(gè)相近的數(shù)之間,BF16 無法進(jìn)行精細(xì)的區(qū)分。

FP16 (半精度浮點(diǎn)數(shù)):遵循 IEEE 754 標(biāo)準(zhǔn),它分配了 5 位給指數(shù)部分,10 位給尾數(shù)部分

優(yōu)勢(shì):擁有 10 位尾數(shù),其精度遠(yuǎn)高于 BF16(可表示的離散值數(shù)量是 BF16 的 2^3=8 倍)。這使得它能更準(zhǔn)確地表示數(shù)值,減少舍入誤差。

劣勢(shì):指數(shù)位只有 5 位,動(dòng)態(tài)范圍非常有限,在訓(xùn)練中容易出現(xiàn)梯度過小而下溢(變成零)的問題。

BF16 為何成為主流?

盡管 FP16 出現(xiàn)得更早,但 BF16 憑借其巨大的動(dòng)態(tài)范圍優(yōu)勢(shì),迅速成為現(xiàn)代大模型訓(xùn)練(尤其是預(yù)訓(xùn)練階段)的 de-facto 標(biāo)準(zhǔn)。使用 BF16,開發(fā)者幾乎無需擔(dān)心數(shù)值溢出問題,可以像使用 FP32 一樣進(jìn)行“即插即用”的混合精度訓(xùn)練。相比之下,使用 FP16 則必須配合一種稱為損失縮放的技術(shù):在反向傳播前,將損失函數(shù)乘以一個(gè)巨大的縮放因子 S,從而將原本微小的梯度值放大到 FP16 的可表示范圍內(nèi);在更新權(quán)重前,再將梯度除以 S 恢復(fù)原值。雖然這個(gè)技術(shù)很成熟,但在分布式訓(xùn)練中會(huì)增加通信和同步的復(fù)雜性。因此,為了簡(jiǎn)潔和穩(wěn)定,業(yè)界普遍選擇了 BF16

BF16 如何導(dǎo)致 RL 微調(diào)失???

論文指出,BF16 在預(yù)訓(xùn)練中的優(yōu)勢(shì),恰恰成了 RL 微調(diào)中的致命弱點(diǎn)

舍入誤差的累積:RL 微調(diào)中的響應(yīng)生成是一個(gè)自回歸(autoregressive)過程,即逐個(gè) token 生成。在 BF16 的低精度下,訓(xùn)練引擎和推理引擎中那些因?qū)崿F(xiàn)不同而產(chǎn)生的微小舍入誤差,會(huì)在長(zhǎng)序列的生成過程中被不斷累積和放大

策略分布的偏離:經(jīng)過幾十上百個(gè) token 的生成后,這些累積的誤差足以讓訓(xùn)練策略 π 和推理策略 μ 的概率分布產(chǎn)生顯著的分歧。這正是“訓(xùn)練-推理不匹配”現(xiàn)象的直接來源

離線分析證據(jù):論文通過離線實(shí)驗(yàn)直觀地展示了這一點(diǎn)。

在 token 級(jí)別的概率對(duì)比散點(diǎn)圖中,F(xiàn)P16 的點(diǎn)緊密地聚集在對(duì)角線(π = μ)周圍,而 BF16 的點(diǎn)則分散得多。

在序列級(jí)別的對(duì)數(shù)概率比(log-probability ratio)分析中,隨著生成序列長(zhǎng)度的增加,BF16 引入的 mismatch 呈指數(shù)級(jí)增長(zhǎng),而 FP16 的 mismatch 則基本保持在一個(gè)非常低的水平(比 BF16 小約 24 倍)。

對(duì)于 RL 微調(diào)階段而言,模型的權(quán)重和激活值范圍已經(jīng)在預(yù)訓(xùn)練中被穩(wěn)定下來,BF16 的超大動(dòng)態(tài)范圍不再是必需品。相反,它所犧牲的精度,卻成了導(dǎo)致訓(xùn)練不穩(wěn)定的關(guān)鍵。因此,論文提出的解決方案非常直接:放棄 BF16 不必要的動(dòng)態(tài)范圍,換回 FP16 急需的數(shù)值精度。FP16 的高精度就像一個(gè)“緩沖墊”,能夠吸收掉不同計(jì)算引擎間的微小實(shí)現(xiàn)差異,阻止舍入誤差的累積,從而從根源上保持了訓(xùn)練與推理策略的一致性。

實(shí)證研究:FP16 如何完勝現(xiàn)有算法

為了驗(yàn)證 FP16 在解決訓(xùn)練-推理不匹配問題上的有效性,論文設(shè)計(jì)了一套嚴(yán)謹(jǐn)?shù)膶?shí)驗(yàn),并與現(xiàn)有的基于 BF16 的算法修正方案進(jìn)行了直接對(duì)比。

創(chuàng)新的實(shí)驗(yàn)設(shè)計(jì):Sanity Test

為了排除數(shù)據(jù)集本身難度分布帶來的干擾,研究者們構(gòu)建了一個(gè)“完美可解”的數(shù)據(jù)集(perfectible dataset)。他們首先從 MATH 數(shù)據(jù)集中篩選出初始模型準(zhǔn)確率在 20% 到 80% 之間的問題,排除了那些過于簡(jiǎn)單或過于困難的題目。在這個(gè)特制的數(shù)據(jù)集上,一個(gè)設(shè)計(jì)良好、運(yùn)行穩(wěn)定的 RL 算法理論上應(yīng)該能夠達(dá)到接近 100% 的訓(xùn)練準(zhǔn)確率。如果一個(gè)算法無法在此數(shù)據(jù)集上取得成功,就表明其本身存在根本性缺陷。這個(gè)“理智測(cè)試”(Sanity Test)為評(píng)估算法的可靠性提供了一個(gè)清晰、高效的基準(zhǔn)。

實(shí)驗(yàn)結(jié)果:FP16 的壓倒性優(yōu)勢(shì)

實(shí)驗(yàn)在 VeRL 和 Oat 兩個(gè)獨(dú)立的 RL 框架上進(jìn)行,以確保結(jié)果的普適性。對(duì)比結(jié)果非常清晰:

BF16 算法陣營(yíng)的集體困境

                                                                        *   **基礎(chǔ) GRPO 算法**:在訓(xùn)練初期就迅速崩潰。
* **GRPO + Token-TIS** (token 級(jí)別的截?cái)嘀匾圆蓸有拚?:雖然能延長(zhǎng)一些訓(xùn)練時(shí)間,但最終仍然無法避免崩潰的命運(yùn)。
* **GRPO + Seq-MIS** (序列級(jí)別的掩碼重要性采樣修正):這是 BF16 陣營(yíng)中唯一能保持穩(wěn)定不崩潰的算法。然而,由于其重要性權(quán)重的方差極大,它的收斂速度異常緩慢,性能遠(yuǎn)未達(dá)到飽和就已耗費(fèi)大量計(jì)算資源,并且最終的性能上限也明顯低于 FP16。
* **GSPO 算法**:表現(xiàn)出乎意料地比 Token-TIS 更穩(wěn)定,但同樣無法與 FP16 的表現(xiàn)相提并論。

FP16 的輕松取勝

研究者們使用了一個(gè)最基礎(chǔ)、最簡(jiǎn)單的重要性采樣策略梯度算法(PG-Seq-IS),沒有添加任何復(fù)雜的方差削減或修正技巧。僅僅因?yàn)檫\(yùn)行在 FP16 精度下,該算法就展現(xiàn)出了極高的訓(xùn)練穩(wěn)定性,不僅從未崩潰,而且收斂速度飛快,輕松達(dá)到了近乎完美的訓(xùn)練獎(jiǎng)勵(lì),性能全面超越了所有精心設(shè)計(jì)的 BF16 算法。

深入洞察訓(xùn)練動(dòng)態(tài)

Mismatch 作為崩潰的預(yù)警信號(hào):實(shí)驗(yàn)發(fā)現(xiàn),所有最終崩潰的 BF16 算法,在崩潰前都表現(xiàn)出一個(gè)共同的特征:訓(xùn)練策略 π 和推理策略 μ 之間的差異(mismatch)持續(xù)增大。這表明 mismatch 是一個(gè)有效的訓(xùn)練健康狀況監(jiān)測(cè)指標(biāo)和崩潰預(yù)警信號(hào)

FP16 從根本上解決了問題:切換到 FP16 后,不同 RL 算法之間的性能差異變得微乎其微。無論是簡(jiǎn)單的策略梯度還是復(fù)雜的 GRPO 變體,在 FP16 環(huán)境下都能穩(wěn)定地達(dá)到很高的性能。這雄辯地證明,F(xiàn)P16 已經(jīng)從根源上解決了不匹配問題,使得那些為解決此問題而設(shè)計(jì)的復(fù)雜算法補(bǔ)丁變得多余。

精度組合的消融實(shí)驗(yàn)

為了進(jìn)一步厘清訓(xùn)練和推理精度各自的影響,論文進(jìn)行了消融研究,測(cè)試了不同精度組合的效果。
BF16 訓(xùn)練 + FP32 推理:雖然能實(shí)現(xiàn)完全穩(wěn)定的訓(xùn)練,但 FP32 推理的速度比 FP16 或 BF16 慢了近三倍,付出的代價(jià)過于高昂,不具備實(shí)用性

FP16 訓(xùn)練 + FP16 推理:這個(gè)組合不僅實(shí)現(xiàn)了最低的訓(xùn)練-推理不匹配,獲得了最穩(wěn)定的訓(xùn)練動(dòng)態(tài)和最高的性能,同時(shí)還保持了極高的計(jì)算效率。

綜合所有實(shí)驗(yàn),結(jié)論是明確的:簡(jiǎn)單地將訓(xùn)練和推理精度統(tǒng)一為 FP16,是解決 RL 微調(diào)不穩(wěn)定性問題最高效、最直接、最經(jīng)濟(jì)的方案。

普適性驗(yàn)證:跨模型、跨場(chǎng)景的廣泛優(yōu)勢(shì)

為了證明“切換到 FP16”這一解決方案并非偶然,而是一種具有廣泛適用性的普適性原則,論文在一系列更多樣化的模型、數(shù)據(jù)和訓(xùn)練范式上進(jìn)行了驗(yàn)證。結(jié)果表明,F(xiàn)P16 在所有測(cè)試場(chǎng)景中都展現(xiàn)出了一致的優(yōu)勢(shì)。

混合專家(MoE)模型的 RL 微調(diào)

MoE 模型因其獨(dú)特的結(jié)構(gòu)(如 top-k 專家選擇等精度敏感操作),在 RL 訓(xùn)練中是出了名的不穩(wěn)定,通常需要復(fù)雜的穩(wěn)定化策略。實(shí)驗(yàn)結(jié)果(見原文圖 1 (i), (j), (k))顯示:

在對(duì) MoE 模型進(jìn)行 RL 微調(diào)時(shí),無論是使用 GRPO-Seq-MIS、GRPO-Token-TIS 還是 PG-Seq-TIS 算法,F(xiàn)P16 精度下的訓(xùn)練都比 BF16 更加穩(wěn)定,并且能夠持續(xù)獲得更高的訓(xùn)練獎(jiǎng)勵(lì)和驗(yàn)證集性能。這證明 FP16 能有效緩解 MoE 模型中更為嚴(yán)重的訓(xùn)練-推理不匹配問題。

低秩適應(yīng)(LoRA)的 RL 微調(diào)

LoRA 是一種參數(shù)高效的微調(diào)技術(shù),因其高效和接近全量微調(diào)的性能而備受青睞。實(shí)驗(yàn)中,研究者們使用 LoRA 進(jìn)行了 RL 微調(diào):

結(jié)果顯示,基于 BF16 的 LoRA 訓(xùn)練在大約 600 步后就崩潰了。

相比之下,基于 FP16 的 LoRA 訓(xùn)練則從頭到尾都保持了完全的穩(wěn)定。這說明 FP16 對(duì)于提升參數(shù)高效微調(diào)方法的穩(wěn)定性同樣至關(guān)重要

大型稠密模型的 RL 微調(diào)

為了驗(yàn)證該發(fā)現(xiàn)在更大規(guī)模模型上的有效性,實(shí)驗(yàn)在一個(gè) 140 億(14B)參數(shù)的稠密模型(Dense-14B)上進(jìn)行。

結(jié)果再次證實(shí)了結(jié)論:使用 FP16 進(jìn)行訓(xùn)練,模型的獎(jiǎng)勵(lì)增長(zhǎng)速度遠(yuǎn)快于 BF16,并且在 AIME 2024 驗(yàn)證集上取得了更高的準(zhǔn)確率。這表明 FP16 能夠有效釋放大模型在 RL 訓(xùn)練中的潛力

其他模型家族的適用性

為了排除結(jié)論可能僅限于特定模型架構(gòu)(如 Qwen)的可能性,研究者們還在一個(gè)基于 Llama 架構(gòu)的 OctoThinker-3B 模型上進(jìn)行了實(shí)驗(yàn)

結(jié)果與之前完全一致:BF16 訓(xùn)練在約 150 步后便因數(shù)值不匹配問題而變得不穩(wěn)定,最終崩潰;而 FP16 訓(xùn)練則一路平穩(wěn),沒有任何不穩(wěn)定的跡象。

通過在 MoE 模型、LoRA 微調(diào)、大型稠密模型以及不同模型架構(gòu)上的全面驗(yàn)證,論文有力地證明了,將浮點(diǎn)數(shù)精度從 BF16 切換到 FP16 是一種能夠系統(tǒng)性提升 RL 微調(diào)穩(wěn)定性和性能的根本性解決方案。其效果超越了特定的算法、模型尺寸或架構(gòu),具有極高的普適價(jià)值。這一發(fā)現(xiàn)不僅解決了當(dāng)前 RL 微調(diào)領(lǐng)域的一個(gè)核心痛點(diǎn),也促使我們重新思考在 LLM 訓(xùn)練流程中關(guān)于數(shù)值精度的權(quán)衡與選擇

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
三四十元一碗的面,澆頭湯底都是袋裝?和府撈面回應(yīng):材料都是當(dāng)天制作

三四十元一碗的面,澆頭湯底都是袋裝?和府撈面回應(yīng):材料都是當(dāng)天制作

中國(guó)能源網(wǎng)
2026-01-07 08:45:05
廣東16歲女兒被父親過度寵溺,被母親回家撞見后,失控將其砍死

廣東16歲女兒被父親過度寵溺,被母親回家撞見后,失控將其砍死

曉艾故事匯
2024-11-04 10:55:36
Scotto:多隊(duì)有意祖巴茨 快船報(bào)價(jià)至少兩個(gè)首輪

Scotto:多隊(duì)有意祖巴茨 快船報(bào)價(jià)至少兩個(gè)首輪

北青網(wǎng)-北京青年報(bào)
2026-01-07 09:10:14
軍長(zhǎng)叫來500士兵砸場(chǎng),警察局長(zhǎng)嚇得直冒冷汗,起因竟是一個(gè)杯子

軍長(zhǎng)叫來500士兵砸場(chǎng),警察局長(zhǎng)嚇得直冒冷汗,起因竟是一個(gè)杯子

朝暮書屋
2024-04-26 17:08:50
烏專家:中國(guó)“吸干”蘇聯(lián)遺產(chǎn),我們圖紙都沒看懂,他們?cè)斐?.0

烏專家:中國(guó)“吸干”蘇聯(lián)遺產(chǎn),我們圖紙都沒看懂,他們?cè)斐?.0

博覽歷史
2025-12-29 19:26:45
續(xù)約韋世豪解約卡??!蓉城正接觸拜合拉木,茹薩加盟令周定洋失寵

續(xù)約韋世豪解約卡??!蓉城正接觸拜合拉木,茹薩加盟令周定洋失寵

刀鋒體育
2026-01-07 13:30:11
“補(bǔ)腦首選”不是核桃,而是它!一天吃幾顆,腦袋聰明,記憶好

“補(bǔ)腦首選”不是核桃,而是它!一天吃幾顆,腦袋聰明,記憶好

江江食研社
2026-01-06 13:30:03
NBA名宿建議火箭交易謝潑德史密斯換特雷楊,球迷:想坑火箭啊

NBA名宿建議火箭交易謝潑德史密斯換特雷楊,球迷:想坑火箭啊

張癈鹵說體育
2026-01-07 13:27:50
張凌赫跨年表演殺穿外網(wǎng):40秒封神背后,爭(zhēng)議與野心并存?

張凌赫跨年表演殺穿外網(wǎng):40秒封神背后,爭(zhēng)議與野心并存?

不甜的李子
2026-01-06 10:45:54
1967年,羅舜初叮囑到國(guó)防科委上班的李敏:千萬不要被人利用

1967年,羅舜初叮囑到國(guó)防科委上班的李敏:千萬不要被人利用

大運(yùn)河時(shí)空
2026-01-06 10:40:03
兩性相處:如果女人不重視你,男人記住這三點(diǎn),你就贏了

兩性相處:如果女人不重視你,男人記住這三點(diǎn),你就贏了

張小楠說情感
2026-01-07 13:31:52
明朝的一首詞,抵得過千萬首唐詩(shī)宋詞,因?yàn)檫@首詞全篇都是名句

明朝的一首詞,抵得過千萬首唐詩(shī)宋詞,因?yàn)檫@首詞全篇都是名句

長(zhǎng)風(fēng)文史
2025-12-18 15:00:28
官宣,國(guó)乒教練離隊(duì)第1人,56歲,被外協(xié)挖走,曾培養(yǎng)王楚欽莎莎

官宣,國(guó)乒教練離隊(duì)第1人,56歲,被外協(xié)挖走,曾培養(yǎng)王楚欽莎莎

樂聊球
2026-01-06 12:32:48
TA:曼聯(lián)計(jì)劃未來幾天內(nèi)和索爾斯克亞、卡里克分別面談執(zhí)教事宜

TA:曼聯(lián)計(jì)劃未來幾天內(nèi)和索爾斯克亞、卡里克分別面談執(zhí)教事宜

畫夕
2026-01-07 14:00:28
“時(shí)速高達(dá)185公里”,外媒:日本演員廣末涼子因“過失駕駛致人受傷”,被判罰款70萬日元

“時(shí)速高達(dá)185公里”,外媒:日本演員廣末涼子因“過失駕駛致人受傷”,被判罰款70萬日元

環(huán)球網(wǎng)資訊
2026-01-06 15:37:19
1.7五百萬基金|A股突然跳水!大龍今天有加有減!

1.7五百萬基金|A股突然跳水!大龍今天有加有減!

龍行天下虎
2026-01-07 13:57:37
東北供暖危機(jī):80%居民自掏腰包受凍,18℃成笑談!

東北供暖危機(jī):80%居民自掏腰包受凍,18℃成笑談!

劉哥談體育
2026-01-07 13:29:54
正視差距!中國(guó)想復(fù)刻美國(guó)特種兵“斬首”某島還缺什么?

正視差距!中國(guó)想復(fù)刻美國(guó)特種兵“斬首”某島還缺什么?

花花娛界
2026-01-05 20:42:58
黃仁勛回應(yīng)H200何時(shí)售往中國(guó):正加快生產(chǎn),等待許可的最終細(xì)節(jié)敲定

黃仁勛回應(yīng)H200何時(shí)售往中國(guó):正加快生產(chǎn),等待許可的最終細(xì)節(jié)敲定

界面新聞
2026-01-07 10:53:25
許家印被執(zhí)行4700萬

許家印被執(zhí)行4700萬

揚(yáng)子晚報(bào)
2026-01-07 12:43:41
2026-01-07 14:48:49
AI寒武紀(jì) incentive-icons
AI寒武紀(jì)
專注于人工智能,科技領(lǐng)域
1025文章數(shù) 393關(guān)注度
往期回顧 全部

科技要聞

豪擲世界第一"球" 楊元慶亮出聯(lián)想AI護(hù)城河

頭條要聞

古巴公布32名陣亡軍人姓名和照片 年齡介于26歲至67歲

頭條要聞

古巴公布32名陣亡軍人姓名和照片 年齡介于26歲至67歲

體育要聞

賣水果、搬磚的小伙,與哈蘭德爭(zhēng)英超金靴

娛樂要聞

2026年央視春晚彩排:沈騰確定回歸

財(cái)經(jīng)要聞

農(nóng)大教授科普:無需過度擔(dān)憂蔬菜農(nóng)殘

汽車要聞

蔚來2025百萬臺(tái)收官 一場(chǎng)遲到的自我修復(fù)

態(tài)度原創(chuàng)

旅游
時(shí)尚
游戲
親子
軍事航空

旅游要聞

屬馬、姓馬、名字帶馬的朋友朋友有福了 多地景區(qū)花式免門票

冬天穿衣既要有溫度又要有風(fēng)度!看看這些穿搭,優(yōu)雅又顯瘦

《DQ7RE》試玩版上線:可繼承存檔 送限定外觀

親子要聞

幫忙帶娃被網(wǎng)暴后續(xù),小姑子曬出多張證據(jù),親戚透露更多內(nèi)情

軍事要聞

特朗普政府正在討論獲取格陵蘭島的方案 包括軍事選項(xiàng)

無障礙瀏覽 進(jìn)入關(guān)懷版