国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

通研院提出NPR框架,讓智能體進(jìn)化出原生的并行推理大腦

0
分享至



近年來,大語言模型在「寫得長、寫得順」這件事上進(jìn)步飛快。但當(dāng)任務(wù)升級到真正復(fù)雜的推理場景 —— 需要兵分多路探索、需要自我反思與相互印證、需要在多條線索之間做匯總與取舍時(shí),傳統(tǒng)的鏈?zhǔn)剿季S(Chain-of-Thought)往往就開始「吃力」:容易被早期判斷帶偏、發(fā)散不足、自我糾錯弱,而且順序生成的效率天然受限。

北京通用人工智能研究院(BIGAI)語言交互實(shí)驗(yàn)室(NLCo)最新工作Native Parallel Reasoner(NPR,原生并行推理器),瞄準(zhǔn)的正是這類瓶頸:

讓智能體在一次思考中同時(shí)衍生并維護(hù)多條候選推理路徑,并在關(guān)鍵節(jié)點(diǎn)「分支 + 聚合」,最終像拼圖一樣匯總線索,合成最優(yōu)解。

更重要的是,NPR 的突破點(diǎn)不只是「并行生成的工程技巧」,而是提出了一套「自蒸餾 + 并行強(qiáng)化學(xué)習(xí)」三階段訓(xùn)練范式,并配套專門的并行推理引擎,目標(biāo)是讓并行推理從外掛變?yōu)槟P偷脑J(rèn)知能力。



  • 論文標(biāo)題:Native Parallel Reasoner: Reasoning in Parallelism via Self-Distilled Reinforcement Learning
  • 論文連接:https://arxiv.org/pdf/2512.07461
  • 展示頁面:https://bigai-nlco.github.io/Native-Parallel-Reasoner

人們對語言智能體(Language Agent)的研究已經(jīng)把關(guān)注從「單一思維鏈擴(kuò)展」推廣到了「多步深度推理」。模型能夠進(jìn)行更深層次的推理令人興奮,但未來的超級智能真正需要的,是能更廣泛地并行探索多條可能思考路徑—— 也就是在一次推理過程中同時(shí)嘗試多種解法,然后再把結(jié)果合并校驗(yàn)。類似 MapReduce 的分而治之思路對進(jìn)一步擴(kuò)展智能體的測試時(shí)計(jì)算的能力邊界至關(guān)重要,但想把它天然地整合進(jìn)一個(gè)智能體中,存在巨大的挑戰(zhàn)。

1. 算法與架構(gòu)不匹配

現(xiàn)有推理引擎和 RL 算法很難原生地支持「分支 + 聚合」操作。推理引擎通常無法有效調(diào)度并行分支;常用的 RL 技術(shù)又會截?cái)嗷蛳魅跄切┯|發(fā)并行結(jié)構(gòu)的特殊詞元的梯度,阻礙模型學(xué)習(xí)嚴(yán)格的并行控制邏輯。

2. 低效的手工并行機(jī)制

早期把并行思路內(nèi)化的嘗試多依賴于手工設(shè)計(jì)的分治規(guī)則,無法充分復(fù)用共享的 KV Cache 狀態(tài),導(dǎo)致每個(gè)分支重復(fù)計(jì)算,時(shí)間復(fù)雜度退化到線性 O (N),難以滿足實(shí)時(shí)或大規(guī)模部署的效率要求。

3. 對強(qiáng)監(jiān)督蒸餾的依賴

像 Multiverse 這類方法雖能實(shí)現(xiàn)并行,但高度依賴于強(qiáng)教師模型蒸餾出的示例,無法通過自舉的方式擴(kuò)展自身的智能邊界。學(xué)生模型不過是在模仿教師的串行拓?fù)洳阉溉搿共⑿懈袷?,結(jié)果是把教師的局限也一并繼承,短時(shí)間內(nèi)難以產(chǎn)生新的、模型本身固有的并行策略 —— 達(dá)到了目前的「智能瓶頸」。

背景與痛點(diǎn):為什么我們迫切需要并行推理?


人們對智能體的期待,正在從「能多想一步」的單一思維鏈,升級到「能多維思考」的深度推理。未來更強(qiáng)的智能體,必須具備廣泛探索多條思考路徑的能力 —— 這很像經(jīng)典的 MapReduce 思想:把復(fù)雜問題拆開并行處理,再聚合結(jié)果完成全局最優(yōu)的決策。

但要讓模型真正學(xué)會這種「分身術(shù)」,現(xiàn)實(shí)里往往卡在三座大山:

1)并行思考數(shù)據(jù)極難獲得:對強(qiáng)教師蒸餾的過度依賴

現(xiàn)有不少并行推理工作需要強(qiáng)教師模型提供高質(zhì)量并行軌跡(如 Multiverse [4] 類方法)。問題在于學(xué)生模型更多是在模仿教師的串行拓?fù)湓佟溉M(jìn)并行格式」,結(jié)果是把教師的局限一并繼承,難以自舉式擴(kuò)展智能邊界,很難真正涌現(xiàn)出「模型自身固有的并行策略」,形成新的智能瓶頸。

2)低效的手工并行機(jī)制:分支之間難共享、重復(fù)計(jì)算嚴(yán)重

早期模型并行常依賴手工設(shè)計(jì)的分治規(guī)則:每條路徑按既定模式推理或生成。由于缺乏對共享步驟的有效復(fù)用,常常出現(xiàn)每個(gè)分支都重復(fù)計(jì)算公共前綴的情況,效率很難滿足實(shí)時(shí)推理和大規(guī)模部署需求。

3)基礎(chǔ)設(shè)施與算法對并行架構(gòu)支持不足:分支 + 聚合「學(xué)不會」

現(xiàn)有推理引擎、強(qiáng)化學(xué)習(xí)算法對「分支 — 聚合」結(jié)構(gòu)往往缺乏原生支持:推理引擎難以高效調(diào)度并行分支;常用 RL 技術(shù)可能會截?cái)嗷蛳魅跤|發(fā)并行結(jié)構(gòu)的特殊控制詞元梯度,從而阻礙模型學(xué)習(xí)嚴(yán)格的并行控制邏輯。

NPR 的核心理念:把「并行性」升維成模型的原生能力


NPR 的關(guān)鍵詞在「原生」二字:研究團(tuán)隊(duì)試圖在零外部監(jiān)督(不依賴強(qiáng)教師并行軌跡)的條件下,探索一條讓模型自我進(jìn)化出并行推理能力的路徑。

整體思路是一個(gè)漸進(jìn)式的三階段訓(xùn)練范式,讓模型從「會用并行格式寫出來」,逐步過渡到「計(jì)算圖層面真的并行執(zhí)行」。

三階段訓(xùn)練范式:從「并行外形」到「并行大腦」


階段一:并行格式學(xué)習(xí) —— 先學(xué)會「怎么寫成并行」

第一步不追求一步到位「真的并行」,而是讓模型先掌握并行推理的表達(dá)結(jié)構(gòu):如何標(biāo)記分支、如何組織多條候選路徑、如何定義聚合點(diǎn)。

階段二:自蒸餾 —— 內(nèi)化「并行思考邏輯」,擺脫外部老師

在具備并行表達(dá)能力后,NPR 用自蒸餾方式讓模型用自己的生成結(jié)果反過來訓(xùn)練自己:通過篩選與沉淀,讓模型逐步內(nèi)化「多分支探索 — 相互印證 — 匯總收斂」 的推理規(guī)律,而不是照搬教師的串行偏好與局限。

階段三:并行感知強(qiáng)化學(xué)習(xí) —— 從「模仿并行」邁向「執(zhí)行并行」

最后一步是關(guān)鍵躍遷:利用并行感知的強(qiáng)化學(xué)習(xí),讓模型學(xué)到什么時(shí)候該分叉、分叉多少、如何在聚合點(diǎn)進(jìn)行比較與合并,使并行不再停留在文本表面,而是真正成為推理過程可執(zhí)行的控制邏輯。

這一步把「并行性」從工程技巧,推進(jìn)到模型的原生能力層面。

如下圖所示,經(jīng)過三個(gè)階段的訓(xùn)練,NPR 準(zhǔn)確率從約 17% 持續(xù)爬升,最終達(dá)到 50.4%(中間兩條學(xué)習(xí)曲線分別對應(yīng)第一階段的格式學(xué)習(xí)與第三階段的并行強(qiáng)化學(xué)習(xí));與傳統(tǒng)推理方式相比,NPR 實(shí)現(xiàn)了約 4.6 倍生成加速(右側(cè)柱狀圖)。



NPR 具體實(shí)現(xiàn)細(xì)節(jié)

NPR 訓(xùn)練范式

Stage 1:Format-following Reinforcement Learning(NPR-ZERO)

  • 目標(biāo):在無任何外部并行示例 / 教師情況下,讓模型學(xué)會生成結(jié)構(gòu)化的并行格式(如
  • 等結(jié)構(gòu)化標(biāo)簽),并盡量保證答案正確性。
  • 方法:以格式合規(guī)與答案正確為獎勵信號,對初始指令微調(diào)模型進(jìn)行 DAPO 風(fēng)格的強(qiáng)化學(xué)習(xí),從而得到能產(chǎn)出并行格式軌跡的生成器(NPR-ZERO)。這一步為后續(xù)自蒸餾提供原始候選軌跡。

Stage 2:Rejection Sampling + Parallel Warmup(NPR-BETA)

  • 目標(biāo):把 Stage 1 的 “格式化產(chǎn)物” 變?yōu)楦哔|(zhì)量的訓(xùn)練數(shù)據(jù)并讓模型在并行語義上穩(wěn)定。
  • 方法:對 NPR-ZERO 進(jìn)行拒絕采樣并應(yīng)用嚴(yán)格的篩選器(必須同時(shí)滿足「格式合規(guī)」與「答案正確」),保留自蒸餾的并行推理軌跡,然后在此之上做冷啟動的并行 SFT 預(yù)熱微調(diào),同時(shí)引入并行注意力掩碼(Parallel Attention Mask)與并行位置編碼(Parallel Positional Encoding),讓模型內(nèi)部能夠支持并行分支的獨(dú)立計(jì)算(并實(shí)現(xiàn) KV Cache 重用以避免重復(fù)計(jì)算)。

Stage 3:Native-Parallel RL(PAPO)

  • 目標(biāo):在并行執(zhí)行引擎上用強(qiáng)化學(xué)習(xí)直接優(yōu)化并行分支策略,使其不僅會「寫」并行格式,也會「算」并行結(jié)果。
  • 方法:提出并實(shí)現(xiàn)Parallel-Aware Policy Optimization (PAPO)—— 對并行語義做專門修改的策略優(yōu)化方法:使用并行 Rollout 的 NPR-Engine 推理引擎以保證結(jié)構(gòu)正確性、在批次層級進(jìn)行優(yōu)勢歸一化、保留特殊結(jié)構(gòu)化 Token 的梯度并放棄重要性采樣以維持穩(wěn)定的 On-Policy 同策略梯度更新。PAPO 能直接在并行計(jì)算圖內(nèi)優(yōu)化分支策略,從不斷地試錯中學(xué)會有效的問題拆解與合并策略。



關(guān)鍵技術(shù)細(xì)節(jié)

1. 自蒸餾與嚴(yán)格篩選(Rejection Sampling)

從 NPR-ZERO 生成大量并行格式的候選軌跡后,采用兩條硬性篩選規(guī)則只保留高質(zhì)量樣本進(jìn)入 D_accept:

  • Outcome Correctness:模型生成的候選軌跡的解析答案與 Ground Truth 一致。
  • Structured Parallelism:輸出嚴(yán)格遵循并行格式的 Schema(標(biāo)簽、塊邊界等)。

當(dāng)且僅當(dāng)同時(shí)滿足以上兩條規(guī)則的采樣軌跡被接受用于冷啟動并行 SFT(NPR-BETA),此策略顯著減少噪聲并保證訓(xùn)練語料的并行性與可學(xué)習(xí)性。

2. 并行注意力掩碼與并行位置編碼

為在單次前向傳遞中同時(shí)存在多條 Reasoning Path,NPR 采用 Multiverse 風(fēng)格的并行注意力掩碼與專門設(shè)計(jì)的并行位置編碼(對應(yīng)論文給出的 Algorithm 2 偽代碼),保證不同分支互相隔離但共享上下文 KV Cache,從而實(shí)現(xiàn)KV Cache 重用并避免每條分支重復(fù)計(jì)算上下文代價(jià)。該編碼亦允許通過標(biāo)簽 Token 標(biāo)明分支 / 步驟 / 指南塊,便于引擎解析。

3. Parallel-Aware Policy Optimization(PAPO)

并行語義下直接套用經(jīng)典 PPO 或 DAPO 會遇到特殊 Token 被剪裁掉、重要性采樣不穩(wěn)定等問題。PAPO 的主要設(shè)計(jì)包括:

  • 并行 Rollout:使用 NPR-Engine 產(chǎn)生嚴(yán)格遵守并行 Schema 的軌跡,保證樣本合法。
  • 結(jié)構(gòu)化過濾:格式違規(guī)樣本在進(jìn)入優(yōu)化前被剔除,獎勵退化為純準(zhǔn)確性(+1 / ?1)。
  • 批次級優(yōu)勢歸一化(Batch-level Normalization):由于格式違規(guī)樣本被移除,組內(nèi)方差塌縮,因此用更大范圍(batch 內(nèi)多組)統(tǒng)計(jì)標(biāo)準(zhǔn)差來穩(wěn)定優(yōu)勢估計(jì)。
  • 保留特殊 Token 的梯度 & 放棄重要性采樣:為防止觸發(fā)并行結(jié)構(gòu)的特殊標(biāo)簽被裁剪掉,PAPO 在 Token 級別保留梯度流;同時(shí)放棄重要性采樣,采用嚴(yán)格的 On-policy Objective,避免重采樣比帶來的不穩(wěn)定。



4. AI Infra 工程化改進(jìn):NPR-Engine

實(shí)驗(yàn)證明:把并行語義放到生產(chǎn)環(huán)境的并行 RL,會暴露出大量的工程問題(KV Cache 重復(fù)釋放導(dǎo)致的內(nèi)存泄漏、并行 Token 計(jì)數(shù)導(dǎo)致的超長生成、非法并行 schema 導(dǎo)致的未定義狀態(tài)等)。論文在引擎層面做了幾項(xiàng)關(guān)鍵修復(fù):

  • 預(yù)算感知的 KV 回收:避免 Radix-Tree KV 路徑的 Opportunistic Recycling 導(dǎo)致 Double-Free,引入預(yù)算感知的確定性回收機(jī)制與 Memory Flush 策略。
  • 分支感知的 Token 累積策略:把全局 Token 預(yù)算從 “只看最長分支” 改為 “按活躍分支因子累計(jì)”,避免超出 max_new_tokens。
  • 格式預(yù)檢與輕量不變性:在分支展開前加一層格式合法性檢查,快速拒絕潛在非法分支以保證 Determinism。

這些工程改進(jìn)和實(shí)現(xiàn)是確保能穩(wěn)定 Parallel RL 的訓(xùn)練,進(jìn)而獲得并行思考智能體的前提。

主要實(shí)驗(yàn)與結(jié)論

評測基準(zhǔn)與度量

在 8 個(gè)推理型基準(zhǔn)上評測:AIME24/25、HMMT25、OlympiadBench、Minerva-Math、ZebraLogic、AMC23、MATH500 等。對小規(guī)模競賽類數(shù)據(jù)使用 avg@8(采樣 8 條解答的平均正確率),對大規(guī)?;騿未鹪O(shè)置使用 avg@1。

訓(xùn)練數(shù)據(jù)優(yōu)勢:性能提升的關(guān)鍵在于用自行提煉的數(shù)據(jù)集(NPR-BETA 的 ORZ-8k)替換了 Multiverse 的訓(xùn)練語料庫(MV-4B 的 s1.1-8k)。盡管兩個(gè)流程在實(shí)現(xiàn)細(xì)節(jié)上略有不同,但都依賴于并行式的 SFT,因此比較結(jié)果具有意義。數(shù)據(jù)替換的影響清晰且一致:AIME24 的性能從 46.7 提升至 50.8(+4.1),ZebraLogic 從 60.2 提升至 76.1(+15.9),AMC23 從 75.0 提升至 85.9(+10.9),MATH500 從 81.6 提升至 91.6(+10.0)??傮w而言,平均得分從 50.1 提升至 59.0(+8.9)。

并行 SFT 的優(yōu)勢:從順序 SFT(例如 SR-BETA)切換到并行 SFT 方法(NPR-BETA)能夠顯著提升各種推理基準(zhǔn)測試的性能。順序 SFT 引入了較強(qiáng)的步驟依賴性先驗(yàn),限制了任務(wù)分解的靈活性。相比之下,并行 SFT 在訓(xùn)練過程中使模型能夠接觸到結(jié)構(gòu)上并行的軌跡,從而實(shí)現(xiàn)更獨(dú)立的子問題探索。具體而言,AIME25 從 37.1 提升至 42.9 (+5.8),OlympiadBench 從 56.3 提升至 60.1 (+3.8),HMMT25 從 22.5 提升至 23.3 (+0.8),ZebraLogic 從 72.8 提升至 76.1 (+3.3)。整體性能從 58.2 提升至 59.0 (+0.8),僅在少數(shù)基準(zhǔn)測試中出現(xiàn)輕微退步。

并行強(qiáng)化學(xué)習(xí)優(yōu)勢:基于 NPR-BETA,應(yīng)用并行強(qiáng)化學(xué)習(xí)算法可獲得進(jìn)一步的性能提升,并始終優(yōu)于順序強(qiáng)化學(xué)習(xí)(NPR 與 SR 相比)。這些改進(jìn)是廣泛而系統(tǒng)的:AIME24 從 57.1 提升至 63.3(+6.2),HMMT25 從 26.3 提升至 30.8(+4.5),Minerva-Math 從 38.2 提升至 43.0(+4.8)。其他基準(zhǔn)測試也顯示出穩(wěn)步提升,AIME25(+1.2)、OlympiadBench(+1.5)、ZebraLogic(+2.8)、AMC23(+2.2)和 MATH500(+0.8)??傮w而言,平均得分從 62.0 提升至 65.0(+3.0)。



Multiverse-32B 在不同數(shù)據(jù)集上的并行率差異顯著,表明其并行推理的采用高度依賴于數(shù)據(jù)集。尤其是在 ZebraLogic 等邏輯密集型任務(wù)上,其性能明顯低于多個(gè)數(shù)學(xué)競賽數(shù)據(jù)集,這表明從順序行為逐步過渡到并行行為的 Multiverse 訓(xùn)練范式,導(dǎo)致并行策略的內(nèi)化不一致,并且對領(lǐng)域特征非常敏感。相比之下,NPR 模型在所有八個(gè)數(shù)據(jù)集上均達(dá)到了 100.0% 的并行觸發(fā)率。這種一致性意味著端到端的 NPR 訓(xùn)練流程能夠更可靠地將并行推理作為模型的默認(rèn)問題解決模式,而不受數(shù)據(jù)集領(lǐng)域或復(fù)雜性的影響。實(shí)際上,這意味著 NPR 不僅能更頻繁地觸發(fā)并行推理,而且能夠在不同的評估數(shù)據(jù)集上穩(wěn)健地實(shí)現(xiàn)這一點(diǎn)。



NPR 在所有五個(gè)基準(zhǔn)測試中均取得了最佳效率,始終優(yōu)于 Multiverse(1.3 倍至 2.4 倍)和自回歸基線,這表明該方法具有穩(wěn)健的泛化能力。重要的是,加速比隨任務(wù)難度而增加:NPR 在較難的問題(AIME25:4.6 倍;HMMT25:4.1 倍)上觀察到的加速比在較容易的問題(AMC23:2.9 倍)上更大,這表明當(dāng)需要更深入地探索解路徑時(shí),NPR 優(yōu)勢日益凸顯。證明了 NPR 既能提高準(zhǔn)確率,而且在可以并行探索多種解策略時(shí)尤其有效。



案例解析

論文給了若干具體題目的并行解法示例,典型模式為:

1.

:并行產(chǎn)生若干獨(dú)立 plan(每個(gè) plan 一句戰(zhàn)術(shù));

2.

:每個(gè) plan 獨(dú)立并行展開具體推理步驟;

3.

:整合與交叉驗(yàn)證,得出最終結(jié)論并給出簡短答案(boxed answer)。

舉例:對于域函數(shù)或幾何題,某些 plan 會分別做不同的分解(代數(shù)、數(shù)值檢驗(yàn)、幾何角度關(guān)系),最后

將各分支結(jié)果比對、剔除不一致項(xiàng)并輸出最終答案。這種「多角度并行 + 匯總」能顯著減少因單一路徑假設(shè)錯導(dǎo)致的花費(fèi)。





結(jié)語


本文提出了一種簡單且可擴(kuò)展的框架,用于構(gòu)建原生并行推理器。該推理器無需依賴外部教師模型即可學(xué)習(xí)自適應(yīng)分解、多樣化的并行規(guī)劃和可靠的聚合。通過將自提煉的并行 SFT 與智能體并行 RL 相結(jié)合,NPR 能夠生成真正的并行推理策略,而非模擬或腳本化的策略。在八個(gè)推理基準(zhǔn)測試上的實(shí)驗(yàn)表明,與 Multiverse 數(shù)據(jù)集、自回歸訓(xùn)練和直接強(qiáng)化學(xué)習(xí)相比,該方法均有顯著的改進(jìn)。論文中的分析進(jìn)一步證明了該方法能夠顯著加速推理、增強(qiáng)測試時(shí)的可擴(kuò)展性,并且不存在偽并行行為。案例研究展示了該模型如何根據(jù)問題難度調(diào)整其并行性,從而實(shí)現(xiàn)結(jié)構(gòu)化探索和穩(wěn)健的驗(yàn)證。這些結(jié)果表明,原生并行推理是實(shí)現(xiàn)更通用、可擴(kuò)展智能的一個(gè)有前景的方向。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
1995年智利女部長訪華,竟點(diǎn)名要“借”走一個(gè)中國警察,幫他們破解埋藏22年的驚天白骨案!

1995年智利女部長訪華,竟點(diǎn)名要“借”走一個(gè)中國警察,幫他們破解埋藏22年的驚天白骨案!

歷史回憶室
2025-12-12 18:17:10
杭州保姆縱火案亡妻尸骨未寒老公已二胎生女,通靈人解讀背后真相

杭州保姆縱火案亡妻尸骨未寒老公已二胎生女,通靈人解讀背后真相

無煙工廠
2024-04-11 19:37:13
中國有源相控陣?yán)走_(dá)真實(shí)水平:并非世界第一,和美差距有多大

中國有源相控陣?yán)走_(dá)真實(shí)水平:并非世界第一,和美差距有多大

黑翼天使
2026-01-10 03:28:16
40歲的阿姨一樣可以穿的很有魅力

40歲的阿姨一樣可以穿的很有魅力

美女穿搭分享
2026-01-09 20:48:33
曝李大雙和李琳離婚,現(xiàn)任是外國美女,已生兒子,丁克23年被拋棄

曝李大雙和李琳離婚,現(xiàn)任是外國美女,已生兒子,丁克23年被拋棄

天天熱點(diǎn)見聞
2026-01-10 16:30:29
早報(bào) | 曼城10比1??巳爻?;熱刺1比2維拉;埃及3比2科特迪瓦

早報(bào) | 曼城10比1??巳爻牵粺岽?比2維拉;埃及3比2科特迪瓦

足球報(bào)
2026-01-11 07:11:57
果然不出所料,跟高市通完電話后,特朗普下達(dá)總統(tǒng)令:跟中國打打

果然不出所料,跟高市通完電話后,特朗普下達(dá)總統(tǒng)令:跟中國打打

阿校談史
2026-01-10 17:42:33
張維伊婚后第一個(gè)生日!董璇直接下血本,茅臺、高定水是基本標(biāo)配

張維伊婚后第一個(gè)生日!董璇直接下血本,茅臺、高定水是基本標(biāo)配

好叫好伐
2026-01-10 22:57:11
研究發(fā)現(xiàn):銀河系已經(jīng)“吃”了6個(gè)星系,此刻正在“消化”第7個(gè)

研究發(fā)現(xiàn):銀河系已經(jīng)“吃”了6個(gè)星系,此刻正在“消化”第7個(gè)

觀察宇宙
2026-01-10 19:39:31
氣到摔水杯吞里程悲!杜蘭特超大帥卻連敗 休媒:我們不配擁有KD

氣到摔水杯吞里程悲!杜蘭特超大帥卻連敗 休媒:我們不配擁有KD

顏小白的籃球夢
2026-01-10 13:39:01
都被騙了?委元首被捕后,一架美洲專機(jī)將抵華,卡尼在中國待4天

都被騙了?委元首被捕后,一架美洲專機(jī)將抵華,卡尼在中國待4天

來科點(diǎn)譜
2026-01-11 09:01:27
23分5記三分!他終于開竅了?把遼寧當(dāng)同曦 把自己當(dāng)主角!

23分5記三分!他終于開竅了?把遼寧當(dāng)同曦 把自己當(dāng)主角!

劉哥談體育
2026-01-10 11:19:01
云南省體育局通報(bào)運(yùn)動員實(shí)名舉報(bào)被索要獎金:情況基本屬實(shí),對教練范某某作出免職處理,已對其立案調(diào)查

云南省體育局通報(bào)運(yùn)動員實(shí)名舉報(bào)被索要獎金:情況基本屬實(shí),對教練范某某作出免職處理,已對其立案調(diào)查

臺州交通廣播
2026-01-10 23:33:43
出動3路人馬,高市早苗對華正式宣戰(zhàn)!關(guān)鍵時(shí)刻,特朗普卻攤牌了

出動3路人馬,高市早苗對華正式宣戰(zhàn)!關(guān)鍵時(shí)刻,特朗普卻攤牌了

時(shí)時(shí)有聊
2026-01-10 14:41:22
“館長”被起訴,再嗆賴清德“敢不敢出庭”:要玩就玩大的

“館長”被起訴,再嗆賴清德“敢不敢出庭”:要玩就玩大的

海峽導(dǎo)報(bào)社
2026-01-10 08:32:06
日本街頭偶遇木村拓哉夫婦!生活模式像老人,網(wǎng)友:有點(diǎn)羅圈腿

日本街頭偶遇木村拓哉夫婦!生活模式像老人,網(wǎng)友:有點(diǎn)羅圈腿

小徐講八卦
2026-01-10 08:39:58
【夢實(shí)香苗】頂級御姐!日本新人老師,絕對讓你心動!

【夢實(shí)香苗】頂級御姐!日本新人老師,絕對讓你心動!

碧波萬覽
2026-01-11 05:50:05
滿是心酸!42歲著名歌手江蘇走穴,賓客只顧吃席沒人搭理

滿是心酸!42歲著名歌手江蘇走穴,賓客只顧吃席沒人搭理

阿燕姐說育兒
2026-01-10 00:27:50
洗碗機(jī)砸家后續(xù):丈夫降薪,妻子愛美,每月多次海底撈,朋友發(fā)聲

洗碗機(jī)砸家后續(xù):丈夫降薪,妻子愛美,每月多次海底撈,朋友發(fā)聲

以茶帶書
2026-01-09 22:17:05
用生命書寫忠誠 用腳步丈量平安

用生命書寫忠誠 用腳步丈量平安

中國青年報(bào)
2026-01-10 07:15:20
2026-01-11 09:44:49
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12088文章數(shù) 142534關(guān)注度
往期回顧 全部

科技要聞

必看 | 2026開年最頂格的AI對話

頭條要聞

"國共論壇"被指即將重啟 鄭麗文:感受到大陸誠意善

頭條要聞

"國共論壇"被指即將重啟 鄭麗文:感受到大陸誠意善

體育要聞

詹皇曬照不滿打手沒哨 裁判報(bào)告最后兩分鐘無誤判

娛樂要聞

吳速玲曝兒子Joe是戀愛腦

財(cái)經(jīng)要聞

這不算詐騙嗎?水滴保誘導(dǎo)扣款惹眾怒

汽車要聞

寶馬25年全球銷量246.3萬臺 中國仍是第一大市場

態(tài)度原創(chuàng)

旅游
時(shí)尚
游戲
公開課
軍事航空

旅游要聞

寧波首座地鐵口庭院開放 每逢整點(diǎn)還有人造雪花

動物紋回潮,那很狂野了

歷史演義跑團(tuán)游戲《捉刀》Steam上線 獲特別好評

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

??沼⑿鄹呦枋攀?曾駕駛殲-6打爆美軍機(jī)

無障礙瀏覽 進(jìn)入關(guān)懷版