国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

通研院提出NPR框架,讓智能體進(jìn)化出原生的并行推理大腦

0
分享至



近年來(lái),大語(yǔ)言模型在「寫得長(zhǎng)、寫得順」這件事上進(jìn)步飛快。但當(dāng)任務(wù)升級(jí)到真正復(fù)雜的推理場(chǎng)景 —— 需要兵分多路探索、需要自我反思與相互印證、需要在多條線索之間做匯總與取舍時(shí),傳統(tǒng)的鏈?zhǔn)剿季S(Chain-of-Thought)往往就開始「吃力」:容易被早期判斷帶偏、發(fā)散不足、自我糾錯(cuò)弱,而且順序生成的效率天然受限。

北京通用人工智能研究院(BIGAI)語(yǔ)言交互實(shí)驗(yàn)室(NLCo)最新工作Native Parallel Reasoner(NPR,原生并行推理器),瞄準(zhǔn)的正是這類瓶頸:

讓智能體在一次思考中同時(shí)衍生并維護(hù)多條候選推理路徑,并在關(guān)鍵節(jié)點(diǎn)「分支 + 聚合」,最終像拼圖一樣匯總線索,合成最優(yōu)解。

更重要的是,NPR 的突破點(diǎn)不只是「并行生成的工程技巧」,而是提出了一套「自蒸餾 + 并行強(qiáng)化學(xué)習(xí)」三階段訓(xùn)練范式,并配套專門的并行推理引擎,目標(biāo)是讓并行推理從外掛變?yōu)槟P偷脑J(rèn)知能力。



  • 論文標(biāo)題:Native Parallel Reasoner: Reasoning in Parallelism via Self-Distilled Reinforcement Learning
  • 論文連接:https://arxiv.org/pdf/2512.07461
  • 展示頁(yè)面:https://bigai-nlco.github.io/Native-Parallel-Reasoner

人們對(duì)語(yǔ)言智能體(Language Agent)的研究已經(jīng)把關(guān)注從「單一思維鏈擴(kuò)展」推廣到了「多步深度推理」。模型能夠進(jìn)行更深層次的推理令人興奮,但未來(lái)的超級(jí)智能真正需要的,是能更廣泛地并行探索多條可能思考路徑—— 也就是在一次推理過(guò)程中同時(shí)嘗試多種解法,然后再把結(jié)果合并校驗(yàn)。類似 MapReduce 的分而治之思路對(duì)進(jìn)一步擴(kuò)展智能體的測(cè)試時(shí)計(jì)算的能力邊界至關(guān)重要,但想把它天然地整合進(jìn)一個(gè)智能體中,存在巨大的挑戰(zhàn)。

1. 算法與架構(gòu)不匹配

現(xiàn)有推理引擎和 RL 算法很難原生地支持「分支 + 聚合」操作。推理引擎通常無(wú)法有效調(diào)度并行分支;常用的 RL 技術(shù)又會(huì)截?cái)嗷蛳魅跄切┯|發(fā)并行結(jié)構(gòu)的特殊詞元的梯度,阻礙模型學(xué)習(xí)嚴(yán)格的并行控制邏輯。

2. 低效的手工并行機(jī)制

早期把并行思路內(nèi)化的嘗試多依賴于手工設(shè)計(jì)的分治規(guī)則,無(wú)法充分復(fù)用共享的 KV Cache 狀態(tài),導(dǎo)致每個(gè)分支重復(fù)計(jì)算,時(shí)間復(fù)雜度退化到線性 O (N),難以滿足實(shí)時(shí)或大規(guī)模部署的效率要求。

3. 對(duì)強(qiáng)監(jiān)督蒸餾的依賴

像 Multiverse 這類方法雖能實(shí)現(xiàn)并行,但高度依賴于強(qiáng)教師模型蒸餾出的示例,無(wú)法通過(guò)自舉的方式擴(kuò)展自身的智能邊界。學(xué)生模型不過(guò)是在模仿教師的串行拓?fù)洳阉溉搿共⑿懈袷?,結(jié)果是把教師的局限也一并繼承,短時(shí)間內(nèi)難以產(chǎn)生新的、模型本身固有的并行策略 —— 達(dá)到了目前的「智能瓶頸」。

背景與痛點(diǎn):為什么我們迫切需要并行推理?


人們對(duì)智能體的期待,正在從「能多想一步」的單一思維鏈,升級(jí)到「能多維思考」的深度推理。未來(lái)更強(qiáng)的智能體,必須具備廣泛探索多條思考路徑的能力 —— 這很像經(jīng)典的 MapReduce 思想:把復(fù)雜問(wèn)題拆開并行處理,再聚合結(jié)果完成全局最優(yōu)的決策。

但要讓模型真正學(xué)會(huì)這種「分身術(shù)」,現(xiàn)實(shí)里往往卡在三座大山:

1)并行思考數(shù)據(jù)極難獲得:對(duì)強(qiáng)教師蒸餾的過(guò)度依賴

現(xiàn)有不少并行推理工作需要強(qiáng)教師模型提供高質(zhì)量并行軌跡(如 Multiverse [4] 類方法)。問(wèn)題在于學(xué)生模型更多是在模仿教師的串行拓?fù)湓佟溉M(jìn)并行格式」,結(jié)果是把教師的局限一并繼承,難以自舉式擴(kuò)展智能邊界,很難真正涌現(xiàn)出「模型自身固有的并行策略」,形成新的智能瓶頸。

2)低效的手工并行機(jī)制:分支之間難共享、重復(fù)計(jì)算嚴(yán)重

早期模型并行常依賴手工設(shè)計(jì)的分治規(guī)則:每條路徑按既定模式推理或生成。由于缺乏對(duì)共享步驟的有效復(fù)用,常常出現(xiàn)每個(gè)分支都重復(fù)計(jì)算公共前綴的情況,效率很難滿足實(shí)時(shí)推理和大規(guī)模部署需求。

3)基礎(chǔ)設(shè)施與算法對(duì)并行架構(gòu)支持不足:分支 + 聚合「學(xué)不會(huì)」

現(xiàn)有推理引擎、強(qiáng)化學(xué)習(xí)算法對(duì)「分支 — 聚合」結(jié)構(gòu)往往缺乏原生支持:推理引擎難以高效調(diào)度并行分支;常用 RL 技術(shù)可能會(huì)截?cái)嗷蛳魅跤|發(fā)并行結(jié)構(gòu)的特殊控制詞元梯度,從而阻礙模型學(xué)習(xí)嚴(yán)格的并行控制邏輯。

NPR 的核心理念:把「并行性」升維成模型的原生能力


NPR 的關(guān)鍵詞在「原生」二字:研究團(tuán)隊(duì)試圖在零外部監(jiān)督(不依賴強(qiáng)教師并行軌跡)的條件下,探索一條讓模型自我進(jìn)化出并行推理能力的路徑。

整體思路是一個(gè)漸進(jìn)式的三階段訓(xùn)練范式,讓模型從「會(huì)用并行格式寫出來(lái)」,逐步過(guò)渡到「計(jì)算圖層面真的并行執(zhí)行」。

三階段訓(xùn)練范式:從「并行外形」到「并行大腦」


階段一:并行格式學(xué)習(xí) —— 先學(xué)會(huì)「怎么寫成并行」

第一步不追求一步到位「真的并行」,而是讓模型先掌握并行推理的表達(dá)結(jié)構(gòu):如何標(biāo)記分支、如何組織多條候選路徑、如何定義聚合點(diǎn)。

階段二:自蒸餾 —— 內(nèi)化「并行思考邏輯」,擺脫外部老師

在具備并行表達(dá)能力后,NPR 用自蒸餾方式讓模型用自己的生成結(jié)果反過(guò)來(lái)訓(xùn)練自己:通過(guò)篩選與沉淀,讓模型逐步內(nèi)化「多分支探索 — 相互印證 — 匯總收斂」 的推理規(guī)律,而不是照搬教師的串行偏好與局限。

階段三:并行感知強(qiáng)化學(xué)習(xí) —— 從「模仿并行」邁向「執(zhí)行并行」

最后一步是關(guān)鍵躍遷:利用并行感知的強(qiáng)化學(xué)習(xí),讓模型學(xué)到什么時(shí)候該分叉、分叉多少、如何在聚合點(diǎn)進(jìn)行比較與合并,使并行不再停留在文本表面,而是真正成為推理過(guò)程可執(zhí)行的控制邏輯。

這一步把「并行性」從工程技巧,推進(jìn)到模型的原生能力層面。

如下圖所示,經(jīng)過(guò)三個(gè)階段的訓(xùn)練,NPR 準(zhǔn)確率從約 17% 持續(xù)爬升,最終達(dá)到 50.4%(中間兩條學(xué)習(xí)曲線分別對(duì)應(yīng)第一階段的格式學(xué)習(xí)與第三階段的并行強(qiáng)化學(xué)習(xí));與傳統(tǒng)推理方式相比,NPR 實(shí)現(xiàn)了約 4.6 倍生成加速(右側(cè)柱狀圖)。



NPR 具體實(shí)現(xiàn)細(xì)節(jié)

NPR 訓(xùn)練范式

Stage 1:Format-following Reinforcement Learning(NPR-ZERO)

  • 目標(biāo):在無(wú)任何外部并行示例 / 教師情況下,讓模型學(xué)會(huì)生成結(jié)構(gòu)化的并行格式(如
  • 等結(jié)構(gòu)化標(biāo)簽),并盡量保證答案正確性。
  • 方法:以格式合規(guī)與答案正確為獎(jiǎng)勵(lì)信號(hào),對(duì)初始指令微調(diào)模型進(jìn)行 DAPO 風(fēng)格的強(qiáng)化學(xué)習(xí),從而得到能產(chǎn)出并行格式軌跡的生成器(NPR-ZERO)。這一步為后續(xù)自蒸餾提供原始候選軌跡。

Stage 2:Rejection Sampling + Parallel Warmup(NPR-BETA)

  • 目標(biāo):把 Stage 1 的 “格式化產(chǎn)物” 變?yōu)楦哔|(zhì)量的訓(xùn)練數(shù)據(jù)并讓模型在并行語(yǔ)義上穩(wěn)定。
  • 方法:對(duì) NPR-ZERO 進(jìn)行拒絕采樣并應(yīng)用嚴(yán)格的篩選器(必須同時(shí)滿足「格式合規(guī)」與「答案正確」),保留自蒸餾的并行推理軌跡,然后在此之上做冷啟動(dòng)的并行 SFT 預(yù)熱微調(diào),同時(shí)引入并行注意力掩碼(Parallel Attention Mask)與并行位置編碼(Parallel Positional Encoding),讓模型內(nèi)部能夠支持并行分支的獨(dú)立計(jì)算(并實(shí)現(xiàn) KV Cache 重用以避免重復(fù)計(jì)算)。

Stage 3:Native-Parallel RL(PAPO)

  • 目標(biāo):在并行執(zhí)行引擎上用強(qiáng)化學(xué)習(xí)直接優(yōu)化并行分支策略,使其不僅會(huì)「寫」并行格式,也會(huì)「算」并行結(jié)果。
  • 方法:提出并實(shí)現(xiàn)Parallel-Aware Policy Optimization (PAPO)—— 對(duì)并行語(yǔ)義做專門修改的策略優(yōu)化方法:使用并行 Rollout 的 NPR-Engine 推理引擎以保證結(jié)構(gòu)正確性、在批次層級(jí)進(jìn)行優(yōu)勢(shì)歸一化、保留特殊結(jié)構(gòu)化 Token 的梯度并放棄重要性采樣以維持穩(wěn)定的 On-Policy 同策略梯度更新。PAPO 能直接在并行計(jì)算圖內(nèi)優(yōu)化分支策略,從不斷地試錯(cuò)中學(xué)會(huì)有效的問(wèn)題拆解與合并策略。



關(guān)鍵技術(shù)細(xì)節(jié)

1. 自蒸餾與嚴(yán)格篩選(Rejection Sampling)

從 NPR-ZERO 生成大量并行格式的候選軌跡后,采用兩條硬性篩選規(guī)則只保留高質(zhì)量樣本進(jìn)入 D_accept:

  • Outcome Correctness:模型生成的候選軌跡的解析答案與 Ground Truth 一致。
  • Structured Parallelism:輸出嚴(yán)格遵循并行格式的 Schema(標(biāo)簽、塊邊界等)。

當(dāng)且僅當(dāng)同時(shí)滿足以上兩條規(guī)則的采樣軌跡被接受用于冷啟動(dòng)并行 SFT(NPR-BETA),此策略顯著減少噪聲并保證訓(xùn)練語(yǔ)料的并行性與可學(xué)習(xí)性。

2. 并行注意力掩碼與并行位置編碼

為在單次前向傳遞中同時(shí)存在多條 Reasoning Path,NPR 采用 Multiverse 風(fēng)格的并行注意力掩碼與專門設(shè)計(jì)的并行位置編碼(對(duì)應(yīng)論文給出的 Algorithm 2 偽代碼),保證不同分支互相隔離但共享上下文 KV Cache,從而實(shí)現(xiàn)KV Cache 重用并避免每條分支重復(fù)計(jì)算上下文代價(jià)。該編碼亦允許通過(guò)標(biāo)簽 Token 標(biāo)明分支 / 步驟 / 指南塊,便于引擎解析。

3. Parallel-Aware Policy Optimization(PAPO)

并行語(yǔ)義下直接套用經(jīng)典 PPO 或 DAPO 會(huì)遇到特殊 Token 被剪裁掉、重要性采樣不穩(wěn)定等問(wèn)題。PAPO 的主要設(shè)計(jì)包括:

  • 并行 Rollout:使用 NPR-Engine 產(chǎn)生嚴(yán)格遵守并行 Schema 的軌跡,保證樣本合法。
  • 結(jié)構(gòu)化過(guò)濾:格式違規(guī)樣本在進(jìn)入優(yōu)化前被剔除,獎(jiǎng)勵(lì)退化為純準(zhǔn)確性(+1 / ?1)。
  • 批次級(jí)優(yōu)勢(shì)歸一化(Batch-level Normalization):由于格式違規(guī)樣本被移除,組內(nèi)方差塌縮,因此用更大范圍(batch 內(nèi)多組)統(tǒng)計(jì)標(biāo)準(zhǔn)差來(lái)穩(wěn)定優(yōu)勢(shì)估計(jì)。
  • 保留特殊 Token 的梯度 & 放棄重要性采樣:為防止觸發(fā)并行結(jié)構(gòu)的特殊標(biāo)簽被裁剪掉,PAPO 在 Token 級(jí)別保留梯度流;同時(shí)放棄重要性采樣,采用嚴(yán)格的 On-policy Objective,避免重采樣比帶來(lái)的不穩(wěn)定。



4. AI Infra 工程化改進(jìn):NPR-Engine

實(shí)驗(yàn)證明:把并行語(yǔ)義放到生產(chǎn)環(huán)境的并行 RL,會(huì)暴露出大量的工程問(wèn)題(KV Cache 重復(fù)釋放導(dǎo)致的內(nèi)存泄漏、并行 Token 計(jì)數(shù)導(dǎo)致的超長(zhǎng)生成、非法并行 schema 導(dǎo)致的未定義狀態(tài)等)。論文在引擎層面做了幾項(xiàng)關(guān)鍵修復(fù):

  • 預(yù)算感知的 KV 回收:避免 Radix-Tree KV 路徑的 Opportunistic Recycling 導(dǎo)致 Double-Free,引入預(yù)算感知的確定性回收機(jī)制與 Memory Flush 策略。
  • 分支感知的 Token 累積策略:把全局 Token 預(yù)算從 “只看最長(zhǎng)分支” 改為 “按活躍分支因子累計(jì)”,避免超出 max_new_tokens。
  • 格式預(yù)檢與輕量不變性:在分支展開前加一層格式合法性檢查,快速拒絕潛在非法分支以保證 Determinism。

這些工程改進(jìn)和實(shí)現(xiàn)是確保能穩(wěn)定 Parallel RL 的訓(xùn)練,進(jìn)而獲得并行思考智能體的前提。

主要實(shí)驗(yàn)與結(jié)論

評(píng)測(cè)基準(zhǔn)與度量

在 8 個(gè)推理型基準(zhǔn)上評(píng)測(cè):AIME24/25、HMMT25、OlympiadBench、Minerva-Math、ZebraLogic、AMC23、MATH500 等。對(duì)小規(guī)模競(jìng)賽類數(shù)據(jù)使用 avg@8(采樣 8 條解答的平均正確率),對(duì)大規(guī)?;騿未鹪O(shè)置使用 avg@1。

訓(xùn)練數(shù)據(jù)優(yōu)勢(shì):性能提升的關(guān)鍵在于用自行提煉的數(shù)據(jù)集(NPR-BETA 的 ORZ-8k)替換了 Multiverse 的訓(xùn)練語(yǔ)料庫(kù)(MV-4B 的 s1.1-8k)。盡管兩個(gè)流程在實(shí)現(xiàn)細(xì)節(jié)上略有不同,但都依賴于并行式的 SFT,因此比較結(jié)果具有意義。數(shù)據(jù)替換的影響清晰且一致:AIME24 的性能從 46.7 提升至 50.8(+4.1),ZebraLogic 從 60.2 提升至 76.1(+15.9),AMC23 從 75.0 提升至 85.9(+10.9),MATH500 從 81.6 提升至 91.6(+10.0)??傮w而言,平均得分從 50.1 提升至 59.0(+8.9)。

并行 SFT 的優(yōu)勢(shì):從順序 SFT(例如 SR-BETA)切換到并行 SFT 方法(NPR-BETA)能夠顯著提升各種推理基準(zhǔn)測(cè)試的性能。順序 SFT 引入了較強(qiáng)的步驟依賴性先驗(yàn),限制了任務(wù)分解的靈活性。相比之下,并行 SFT 在訓(xùn)練過(guò)程中使模型能夠接觸到結(jié)構(gòu)上并行的軌跡,從而實(shí)現(xiàn)更獨(dú)立的子問(wèn)題探索。具體而言,AIME25 從 37.1 提升至 42.9 (+5.8),OlympiadBench 從 56.3 提升至 60.1 (+3.8),HMMT25 從 22.5 提升至 23.3 (+0.8),ZebraLogic 從 72.8 提升至 76.1 (+3.3)。整體性能從 58.2 提升至 59.0 (+0.8),僅在少數(shù)基準(zhǔn)測(cè)試中出現(xiàn)輕微退步。

并行強(qiáng)化學(xué)習(xí)優(yōu)勢(shì):基于 NPR-BETA,應(yīng)用并行強(qiáng)化學(xué)習(xí)算法可獲得進(jìn)一步的性能提升,并始終優(yōu)于順序強(qiáng)化學(xué)習(xí)(NPR 與 SR 相比)。這些改進(jìn)是廣泛而系統(tǒng)的:AIME24 從 57.1 提升至 63.3(+6.2),HMMT25 從 26.3 提升至 30.8(+4.5),Minerva-Math 從 38.2 提升至 43.0(+4.8)。其他基準(zhǔn)測(cè)試也顯示出穩(wěn)步提升,AIME25(+1.2)、OlympiadBench(+1.5)、ZebraLogic(+2.8)、AMC23(+2.2)和 MATH500(+0.8)??傮w而言,平均得分從 62.0 提升至 65.0(+3.0)。



Multiverse-32B 在不同數(shù)據(jù)集上的并行率差異顯著,表明其并行推理的采用高度依賴于數(shù)據(jù)集。尤其是在 ZebraLogic 等邏輯密集型任務(wù)上,其性能明顯低于多個(gè)數(shù)學(xué)競(jìng)賽數(shù)據(jù)集,這表明從順序行為逐步過(guò)渡到并行行為的 Multiverse 訓(xùn)練范式,導(dǎo)致并行策略的內(nèi)化不一致,并且對(duì)領(lǐng)域特征非常敏感。相比之下,NPR 模型在所有八個(gè)數(shù)據(jù)集上均達(dá)到了 100.0% 的并行觸發(fā)率。這種一致性意味著端到端的 NPR 訓(xùn)練流程能夠更可靠地將并行推理作為模型的默認(rèn)問(wèn)題解決模式,而不受數(shù)據(jù)集領(lǐng)域或復(fù)雜性的影響。實(shí)際上,這意味著 NPR 不僅能更頻繁地觸發(fā)并行推理,而且能夠在不同的評(píng)估數(shù)據(jù)集上穩(wěn)健地實(shí)現(xiàn)這一點(diǎn)。



NPR 在所有五個(gè)基準(zhǔn)測(cè)試中均取得了最佳效率,始終優(yōu)于 Multiverse(1.3 倍至 2.4 倍)和自回歸基線,這表明該方法具有穩(wěn)健的泛化能力。重要的是,加速比隨任務(wù)難度而增加:NPR 在較難的問(wèn)題(AIME25:4.6 倍;HMMT25:4.1 倍)上觀察到的加速比在較容易的問(wèn)題(AMC23:2.9 倍)上更大,這表明當(dāng)需要更深入地探索解路徑時(shí),NPR 優(yōu)勢(shì)日益凸顯。證明了 NPR 既能提高準(zhǔn)確率,而且在可以并行探索多種解策略時(shí)尤其有效。



案例解析

論文給了若干具體題目的并行解法示例,典型模式為:

1.

:并行產(chǎn)生若干獨(dú)立 plan(每個(gè) plan 一句戰(zhàn)術(shù));

2.

:每個(gè) plan 獨(dú)立并行展開具體推理步驟;

3.

:整合與交叉驗(yàn)證,得出最終結(jié)論并給出簡(jiǎn)短答案(boxed answer)。

舉例:對(duì)于域函數(shù)或幾何題,某些 plan 會(huì)分別做不同的分解(代數(shù)、數(shù)值檢驗(yàn)、幾何角度關(guān)系),最后

將各分支結(jié)果比對(duì)、剔除不一致項(xiàng)并輸出最終答案。這種「多角度并行 + 匯總」能顯著減少因單一路徑假設(shè)錯(cuò)導(dǎo)致的花費(fèi)。





結(jié)語(yǔ)


本文提出了一種簡(jiǎn)單且可擴(kuò)展的框架,用于構(gòu)建原生并行推理器。該推理器無(wú)需依賴外部教師模型即可學(xué)習(xí)自適應(yīng)分解、多樣化的并行規(guī)劃和可靠的聚合。通過(guò)將自提煉的并行 SFT 與智能體并行 RL 相結(jié)合,NPR 能夠生成真正的并行推理策略,而非模擬或腳本化的策略。在八個(gè)推理基準(zhǔn)測(cè)試上的實(shí)驗(yàn)表明,與 Multiverse 數(shù)據(jù)集、自回歸訓(xùn)練和直接強(qiáng)化學(xué)習(xí)相比,該方法均有顯著的改進(jìn)。論文中的分析進(jìn)一步證明了該方法能夠顯著加速推理、增強(qiáng)測(cè)試時(shí)的可擴(kuò)展性,并且不存在偽并行行為。案例研究展示了該模型如何根據(jù)問(wèn)題難度調(diào)整其并行性,從而實(shí)現(xiàn)結(jié)構(gòu)化探索和穩(wěn)健的驗(yàn)證。這些結(jié)果表明,原生并行推理是實(shí)現(xiàn)更通用、可擴(kuò)展智能的一個(gè)有前景的方向。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
原子彈炸后百年內(nèi)寸草不生!今廣島卻住滿了人,看看專家怎么說(shuō)?

原子彈炸后百年內(nèi)寸草不生!今廣島卻住滿了人,看看專家怎么說(shuō)?

興趣知識(shí)
2025-12-12 19:33:40
突傳!河北主持雪莉去世!僅38歲,前一天還發(fā)自拍,好友透露死因

突傳!河北主持雪莉去世!僅38歲,前一天還發(fā)自拍,好友透露死因

千言?shī)蕵?lè)記
2025-12-28 20:01:31
闞清子面臨巨額違約索賠,未婚夫一家變臉,孩子去世后豪門夢(mèng)破碎

闞清子面臨巨額違約索賠,未婚夫一家變臉,孩子去世后豪門夢(mèng)破碎

花哥扒娛樂(lè)
2025-12-28 19:49:42
特朗普恐怕沒(méi)料到,大批軍火還沒(méi)運(yùn)抵臺(tái)島,中方一招直打美國(guó)七寸

特朗普恐怕沒(méi)料到,大批軍火還沒(méi)運(yùn)抵臺(tái)島,中方一招直打美國(guó)七寸

面包夾知識(shí)
2025-12-27 00:00:32
闞清子生子風(fēng)波的后續(xù)瓜!

闞清子生子風(fēng)波的后續(xù)瓜!

八卦瘋叔
2025-12-29 10:59:58
柬埔寨的打法越來(lái)越像哈馬斯了

柬埔寨的打法越來(lái)越像哈馬斯了

歷史總在押韻
2025-12-27 12:26:25
央視怒批,國(guó)務(wù)院點(diǎn)名封殺!這幾位蒙騙老百姓的大網(wǎng)紅,徹底涼涼

央視怒批,國(guó)務(wù)院點(diǎn)名封殺!這幾位蒙騙老百姓的大網(wǎng)紅,徹底涼涼

大魚簡(jiǎn)科
2025-09-02 19:34:00
拋“對(duì)等論”后24小時(shí),鄭麗文遭遇重大失利,韓國(guó)瑜相助也沒(méi)用?

拋“對(duì)等論”后24小時(shí),鄭麗文遭遇重大失利,韓國(guó)瑜相助也沒(méi)用?

奉壹數(shù)碼
2025-12-29 14:20:48
多地嚴(yán)查體制內(nèi)“關(guān)系崗”,為啥偏偏這時(shí)候動(dòng)真格?原因太現(xiàn)實(shí)了

多地嚴(yán)查體制內(nèi)“關(guān)系崗”,為啥偏偏這時(shí)候動(dòng)真格?原因太現(xiàn)實(shí)了

社會(huì)日日鮮
2025-12-29 11:01:55
微信回應(yīng)安裝包體積膨脹,辟謠不會(huì)重復(fù)存儲(chǔ)用戶文件

微信回應(yīng)安裝包體積膨脹,辟謠不會(huì)重復(fù)存儲(chǔ)用戶文件

揚(yáng)子晚報(bào)
2025-12-29 12:29:08
魔術(shù)讓火箭成功避坑班切羅!史密斯已成優(yōu)質(zhì)空間四號(hào)位,上限更高

魔術(shù)讓火箭成功避坑班切羅!史密斯已成優(yōu)質(zhì)空間四號(hào)位,上限更高

金風(fēng)說(shuō)
2025-12-29 13:50:11
遺憾 23歲美女朱易再次失誤+無(wú)緣米蘭冬奧會(huì) 3年前曾出戰(zhàn)北京冬奧

遺憾 23歲美女朱易再次失誤+無(wú)緣米蘭冬奧會(huì) 3年前曾出戰(zhàn)北京冬奧

風(fēng)過(guò)鄉(xiāng)
2025-12-29 08:24:49
小卡55分刷紀(jì)錄!快船更衣室狂歡曝光:哈登帶頭為他瘋狂潑水慶祝

小卡55分刷紀(jì)錄!快船更衣室狂歡曝光:哈登帶頭為他瘋狂潑水慶祝

追球者
2025-12-29 14:11:54
國(guó)民黨中央委員選舉結(jié)果出爐,朱立倫狂喜,要拿捏鄭麗文?

國(guó)民黨中央委員選舉結(jié)果出爐,朱立倫狂喜,要拿捏鄭麗文?

叮當(dāng)當(dāng)科技
2025-12-28 04:57:08
72歲腫瘤專家患癌,抗癌一年病逝,他臨終前的2個(gè)后悔,引以為戒

72歲腫瘤專家患癌,抗癌一年病逝,他臨終前的2個(gè)后悔,引以為戒

39健康網(wǎng)
2025-12-26 16:09:48
從美元到黃金:全球資產(chǎn)“安全遷徙”,A股五大黃金龍頭迎來(lái)重估

從美元到黃金:全球資產(chǎn)“安全遷徙”,A股五大黃金龍頭迎來(lái)重估

小白鴿財(cái)經(jīng)
2025-12-29 07:05:02
乒超衛(wèi)冕后,球迷偶遇王楚欽離開南京,贊揚(yáng):意氣風(fēng)發(fā)少年郎

乒超衛(wèi)冕后,球迷偶遇王楚欽離開南京,贊揚(yáng):意氣風(fēng)發(fā)少年郎

鳳幻洋
2025-12-29 14:13:38
這8種東西不能用酒精擦,一擦就壞,再也修復(fù)不回來(lái)了!

這8種東西不能用酒精擦,一擦就壞,再也修復(fù)不回來(lái)了!

裝修秀
2025-11-13 11:50:03
鐵道部長(zhǎng)丁關(guān)根不知王震要來(lái),跑步下樓接,王震:我來(lái)打土豪來(lái)了

鐵道部長(zhǎng)丁關(guān)根不知王震要來(lái),跑步下樓接,王震:我來(lái)打土豪來(lái)了

浩渺青史
2025-12-23 20:05:39
交大附中嚴(yán)正聲明!很多嘉定家長(zhǎng)都收到了!

交大附中嚴(yán)正聲明!很多嘉定家長(zhǎng)都收到了!

尚虹橋
2025-12-28 20:33:43
2025-12-29 15:59:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12014文章數(shù) 142523關(guān)注度
往期回顧 全部

科技要聞

肉搏非洲,傳音不想只當(dāng)個(gè)賣手機(jī)的

頭條要聞

外交部:美在中國(guó)實(shí)現(xiàn)完全統(tǒng)一問(wèn)題上是欠了中國(guó)債的

頭條要聞

外交部:美在中國(guó)實(shí)現(xiàn)完全統(tǒng)一問(wèn)題上是欠了中國(guó)債的

體育要聞

“史上最貴”的世界杯,球迷成了韭菜

娛樂(lè)要聞

譚松韻扛劇能力被質(zhì)疑 趙麗穎成女主?

財(cái)經(jīng)要聞

白銀驚魂過(guò)山車 貴金屬牛站在懸崖邊?

汽車要聞

一汽正式“入股”零跑,總金額超37億元!

態(tài)度原創(chuàng)

家居
教育
親子
藝術(shù)
公開課

家居要聞

東方雅韻 溫馨恬適

教育要聞

整體思維,學(xué)生:看到就想睡覺(jué)

親子要聞

一人一籍、籍隨人走,教育部發(fā)布首個(gè)全國(guó)性學(xué)前兒童學(xué)籍管理辦法

藝術(shù)要聞

克里姆特風(fēng)格的女性人物畫,太美了!

公開課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版