国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

從匹配困境到推理突破:阿里REG4Rec 激活生成式推薦的個性化潛力

0
分享至



一、引言

從內(nèi)容分發(fā)到商業(yè)轉(zhuǎn)化,推薦系統(tǒng)早已成為互聯(lián)網(wǎng)平臺的關(guān)鍵基礎(chǔ)設施。它在海量信息與有限注意力之間完成篩選和排序,直接影響內(nèi)容曝光、商品成交以及流量變現(xiàn)效率。

用戶在電商平臺上看到的商品列表、在信息流里刷到的內(nèi)容、廣告位中呈現(xiàn)的鏈接,通常并非隨機展現(xiàn),而是推薦系統(tǒng)在毫秒級完成特征理解和排序決策的結(jié)果。

近年來,大語言模型(LLM)在語義理解、內(nèi)容生成和多步推理方面取得快速進展,推動業(yè)界重新審視推薦系統(tǒng)的形態(tài):推薦是否可以不再局限于一次性打分和相似度匹配,而是像人類決策一樣,在生成過程中進行多步推理與自我修正,逐步逼近用戶的真實意圖。

基于此,「生成式推薦」開始成為一個重要研究方向,嘗試將 “理解 — 生成 — 推理” 融為一體,讓推薦過程從靜態(tài)匹配轉(zhuǎn)變?yōu)槊嫦蛴脩粢鈭D的動態(tài)決策。

在實際電商環(huán)境中,生成式推薦面臨的主要挑戰(zhàn)不在于生成商品本身,而在于生成過程是否具備「可推理、可控且穩(wěn)定」的能力。

電商場景下,用戶行為信號噪聲高、興趣多樣且頻繁變化,模型需要在多步生成過程中持續(xù)校準語義方向、維持推理軌跡的一致性。若仍采用經(jīng)典自回歸解碼,早期預測偏差容易被不斷放大,推理路徑收縮到少量固定模式,導致生成精度受限、長尾興趣覆蓋不足,難以穩(wěn)定命中用戶真實需求。

針對上述問題,阿里國際智能技術(shù)團隊提出了基于推理增強范式的生成式推薦模型 REG4Rec。該模型從表征學習、訓練目標和推理策略三個層面進行了系統(tǒng)設計,以提升生成式推薦的推理能力與穩(wěn)定性。離線實驗顯示,REG4Rec 在多個關(guān)鍵指標上優(yōu)于現(xiàn)有生成式方法,并呈現(xiàn)出隨推理步數(shù)增加而性能持續(xù)提升的 Scaling Up 特性。

目前,REG4Rec 已在 Lazada 推薦廣告場景完成大規(guī)模工業(yè)化部署。線上結(jié)果顯示:廣告收入提升5.60%、商品交易總額(GMV)提升3.29%、點擊率提升1.81%,帶來顯著商業(yè)收益。

本工作相關(guān)成果已被數(shù)據(jù)挖掘領(lǐng)域頂級會議 ICDE 2026 接收。



  • 論文標題:REG4Rec: Reasoning-Enhanced Generative Model for Large-Scale Recommendation Systems
  • 論文鏈接:https://arxiv.org/pdf/2508.15308

二、從判別打分走向多步生成,難點在于「推理」

長期以來,主流推薦模型大多遵循判別式范式:給定用戶與候選物品,模型通過一次性打分來估計二者的交互概率。

這種方式高效且易于部署,但也天然受限,當用戶興趣快速演化、意圖高度隱式且多維交織時,單次判別打分無法顯式建模用戶的決策路徑,也無法在推理過程中對路徑進行修正。換言之,它更擅長回答是不是,卻不擅長回答你真正想要什么、以及為什么。

在這一背景下,生成式推薦開始受到關(guān)注。它把推薦從「一次判斷」改寫為「多步生成」:不再直接對候選打分,而是將物品表示從連續(xù)向量離散化為一串語義 ID(Semantic IDs),并讓模型在解碼階段逐步生成這些 ID。每一步生成都在補全一部分意圖線索、收縮候選語義空間,最終由一組語義 ID 組合定位到目標物品。

相比單次打分,這種范式天然接近推理式?jīng)Q策,模型在生成過程中主動選擇、組合并糾偏,從而有機會捕捉更細粒度、更個性化的興趣表達。

圍繞語義 ID 與生成式范式,阿里國際智能技術(shù)團隊在工業(yè)場景中持續(xù)探索。2024 年,團隊將殘差式語義 ID引入召回階段的負采樣,實現(xiàn)了負樣本難度與規(guī)模的可控調(diào)度(WWW’25 ESANS [1])。

同時團隊搭建并部署了行為大模型基座,針對多模態(tài)異構(gòu) token 帶來的噪聲問題,提出基于分層 Transformer 的去噪建模方案(SIGIR’25 HeterRec [2])。這些前置工作表明,生成式范式的關(guān)鍵并不止于「能生成」,更在于如何讓生成過程具備更強的「推理能力」與「可控性」。

基于此,團隊提出了推理增強生成式推薦模型 REG4Rec,并將面臨的核心挑戰(zhàn)概括為三點:

  • 挑戰(zhàn)一:碼本信息分布不均,步間語義割裂。當前主流生成式推薦方案多采用殘差式層級語義 token,但在多步生成中存在兩類問題。其一,語義信息過度集中在淺層,深層 token 的信息量隨層數(shù)快速衰減,從而帶來層間學習難度不一致、訓練收斂不穩(wěn)定等問題。其二,不同層級 token 之間語義關(guān)聯(lián)弱,缺乏跨步承接,使后續(xù)生成難以有效利用前序先驗,每一步都像在全新空間里重新開始,從而顯著抬高整體解碼難度。

  • 挑戰(zhàn)二:解碼路徑固定,難以刻畫 “因人而異” 的決策邏輯?,F(xiàn)有生成式推薦通常固定語義 ID 的生成順序,相當于為所有用戶預設同一條推理軌跡。然而,同一商品可能因品牌、風格、價格、類目等不同因素被不同用戶觸發(fā),固定順序限制了模型描繪「個體化決策路徑」的能力,壓縮了個性化表達空間。

  • 挑戰(zhàn)三:自回歸解碼的誤差累積問題。生成式解碼通常采用自回歸方式,缺少對當前生成狀態(tài)進行顯式評估與修正的機制。一旦早期 token 出現(xiàn)偏差,錯誤便會在后續(xù)步驟中持續(xù)傳導并逐步累積,最終導致失之毫厘,謬以千里。

三、REG4Rec:讓生成式推薦從匹配走向多步推理

3.1 方案設計

針對上述挑戰(zhàn),REG4Rec 從語義 ID 表征、推理路徑建模、推理增強訓練和線上推理部署四個層面進行系統(tǒng)設計,構(gòu)建端到端的生成式推理方案:

1. 超長并行語義碼本:用 MMQ 并行碼本替代 RQ-VAE 殘差層級碼本,緩解碼本信息分布不均和步間語義割裂問題,使碼本規(guī)模與推理步數(shù)能夠穩(wěn)定擴展。

2. 上下文感知的動態(tài)推理路徑:在推理階段支持自適應的 token 生成順序,使解碼路徑隨用戶意圖動態(tài)變化,更好刻畫 “因人而異” 的決策邏輯。

3. 基于 GRPO 的推理增強:引入多維反饋信號(如 token 命中、類目一致性、語義一致性等)對推理過程做偏好對齊,提升對早期誤差和錯誤前綴的魯棒性,增強自我糾偏能力。

4. 基于反思剪枝與多步松弛的線上部署:在推理階段引入一致性度量進行 “反思剪枝”,過濾語義不一致的解碼路徑。在商品檢索時則允許少量 token 不匹配的模糊召回,在保證推理穩(wěn)定性的同時提升長尾覆蓋能力。



圖 1 REG4Rec 算法架構(gòu)

3.2 超長并行語義碼本

工業(yè)界常用 RQ-VAE 來構(gòu)造語義 ID,其殘差層級結(jié)構(gòu)更適合壓縮表示,并不天然適配多步推理式生成。隨著解碼步數(shù)增加,新增碼本往往難以貢獻同等水平的增量語義信息,訓練過程中也更容易出現(xiàn)層間收斂不同步的問題。

更重要的是,層級殘差把語義拆到彼此相對割裂的空間里,后續(xù)步驟難以繼承前序推理結(jié)果,導致多步生成難以實現(xiàn)「隨步數(shù)增加而持續(xù)提升」,反而更容易放大早期偏差。這意味著如果不改變語義 ID 的組織方式,推理步數(shù)和收益都很難可持續(xù)擴展。



圖 2 基于 MoE 的并行語義碼本 MMQ

為了解決這些問題,阿里國際智能技術(shù)團隊提出了一套基于 MoE 的并行語義碼本方案 (WSDM’26 MMQ [3])。該方案通過多個專家從不同語義視角對同一商品進行編碼,生成一組平行的語義 token 空間;同時引入路由機制,為各 token 維度清晰分工,避免語義信息過度集中在少數(shù)維度,其余維度逐步退化為殘差噪聲。

在這一設計下,碼本規(guī)模與推理步數(shù)能夠更穩(wěn)健地擴展,為更長推理鏈路的 Scaling Up 奠定基礎(chǔ)。同時,生成的核心目標也從「壓縮商品表示」轉(zhuǎn)向「刻畫用戶興趣空間」:模型在多個語義維度上逐步推理出用戶偏好,再通過檢索策略從商品庫中取回滿足這些語義約束的目標物品。

3.3 上下文感知的動態(tài)推理路徑

在現(xiàn)有生成式召回架構(gòu)中,商品通常被編碼為一條固定順序的語義 token 序列,對于殘差碼本往往對應由粗到細的層級順序。這種確定性表征隱含了一個強假設:所有用戶都應沿著同一套語義維度依次理解商品。但在真實推薦場景中,用戶的決策線索往往因人而異。同一商品包含品牌、價格帶、顏色、款式等多維屬性,不同用戶產(chǎn)生興趣的觸發(fā)點可能完全不同,有人先看品牌,有人更在意外觀風格,也有人優(yōu)先關(guān)注價格。若解碼順序被綁定到單一靜態(tài)路徑,就相當于把不同用戶的推理過程壓縮到同一條決策鏈上,模型可表達的推理空間被顯著收窄,個性化效果也因此受限。



圖 3 基于上下文感知的動態(tài)推理路徑

為此,REG4Rec 設計了上下文感知的動態(tài)推理路徑。模型在每一步生成前,綜合用戶歷史行為、實時意圖信號以及已生成的 token 前綴,自適應決定下一步從哪個語義維度進行解碼。這樣,解碼不再受預設順序約束,而是圍繞用戶當前關(guān)注點動態(tài)選擇并組合語義維度,逐步形成更貼近個體決策邏輯的推理軌跡。

這一設計將個性化能力前置到生成過程之中,使模型不僅學習「生成哪些語義線索」,也學習「先生成哪些線索、再補全哪些約束」。在并行碼本提供的多視角語義空間上,動態(tài)路徑顯著擴展了可探索的推理組合,有助于更精準地捕捉復雜多變的用戶意圖。

3.4 基于 GRPO 的推理增強

受大語言模型中「推理即生成」范式的啟發(fā),REG4Rec 將推薦從傳統(tǒng)的「表征匹配」升級為「可控的邏輯推理」,更細致地刻畫用戶行為背后的決策路徑與真實興趣。

為此,REG4Rec 在訓練階段引入強化學習框架,基于 GRPO 進行偏好對齊,引導模型在大規(guī)模生成空間中探索更優(yōu)推理路徑。獎勵函數(shù)設計主要包括三類信號:

  • 面向結(jié)果的獎勵:根據(jù)生成結(jié)果與目標商品語義 ID 的命中程度給予獎勵。即使前綴出現(xiàn)偏差,只要后續(xù)檢索的商品命中目標,仍會持續(xù)給予正反饋,從而緩解自回歸誤差累積,并促使模型學到錯誤前綴下的更優(yōu)策略,提升離線與線上表現(xiàn)的一致性。

  • 面向過程的獎勵:包含兩項信號,一是類目命中獎勵,在難以精確命中商品時先對齊到正確類目,為模型提供更穩(wěn)定的中間目標;二是語義一致性獎勵,約束相鄰步驟的語義漂移,避免推理鏈路發(fā)生明顯跳變,保障生成過程的連貫性。

  • 面向集合檢索的松弛獎勵:當生成結(jié)果命中足夠多的語義 token 即給予獎勵,與線上集合檢索邏輯對齊,促使模型學習更有效的 token 組合策略,從而提升長尾覆蓋與整體魯棒性。

通過上述 GRPO 后訓練,模型能夠在多步生成中更好平衡命中率、推理方向與語義連貫性,顯著提升推理路徑的可控性與結(jié)果穩(wěn)定性。

3.5 基于反思剪枝與多步松弛的線上部署

在線上部署環(huán)節(jié),REG4Rec 圍繞穩(wěn)定性與泛化性,對推理與檢索兩個關(guān)鍵環(huán)節(jié)做了針對性改造。

推理階段的反思剪枝:在 Beam Search 擴展候選路徑時,不再僅依賴累計生成概率進行排序,而是引入一致性信號,對生成軌跡進行在線「自檢」。對于語義前后不連貫、出現(xiàn)明顯漂移的路徑及時剪枝,優(yōu)先保留語義一致的候選,從而降低多步解碼的不確定性,讓輸出更穩(wěn)定、更可靠。

檢索階段的多步松弛:在商品檢索時,不再將 token 序列完全一致作為硬約束,而是允許少量 token 不匹配的候選進入召回集合。這樣可以顯著降低局部預測偏差帶來的漏召風險,同時幾乎不增加額外推理開銷,并進一步提升對長尾興趣與相似商品的覆蓋能力。

3.6 性能與效率:在大規(guī)模業(yè)務場景跑得動

訓練優(yōu)化:隨著模型參數(shù)和推理步數(shù)增加,訓練時間顯著變長,對離線迭代速度帶來壓力。REG4Rec 團隊從特征處理、高效率算子引入,量化和顯存管理等多個維度進行優(yōu)化,將單次訓練時間縮短至原來的約一半,加快訓練迭代和實驗回收效率。部分關(guān)鍵的優(yōu)化點如下:



推理優(yōu)化:在生成式推薦的推理鏈路中,同樣包含特征處理與模型計算部分。REG4Rec 的優(yōu)化重點主要集中在模型推理側(cè),一方面借鑒 LLM 推理優(yōu)化思路,另一方面結(jié)合搜索與廣告場景下的生成式推薦特點進行定制化設計,主要包括:

通用優(yōu)化:將 LLM 推理優(yōu)化的方法應用到生成式推薦中,如 FlashAttention、量化、KV cache 等,以提升算子效率和硬件利用率。

定制優(yōu)化:針對生成式召回中 beam size 增大會導致 batch size 膨脹的問題,引入 TreeAttention 等機制控制計算規(guī)模;同時開發(fā)多種高性能融合算子(基于 Triton 或 CUDA),進一步降低推理延遲。



四、實驗

4.1 離線實驗

為了驗證 REG4Rec 的有效性,實驗采用 Recall@K 和 NDCG@K 作為離線評估指標,并在三個公開數(shù)據(jù)集和一個工業(yè)數(shù)據(jù)集上,與多個主流推薦模型進行了系統(tǒng)對比。結(jié)果顯示,REG4Rec 在各項核心指標上均顯著優(yōu)于現(xiàn)有的判別式與生成式推薦基線,整體召回效果取到了穩(wěn)定領(lǐng)先。



圖 4 REG4Rec 離線實驗結(jié)果

此外,REG4Rec 在生成過程中引入了更長的推理與選擇機制。在并行碼本設定下,對比了不同推理步數(shù)對召回效果的影響??梢钥吹剑S著推理步數(shù)增加,離線指標呈現(xiàn)穩(wěn)定的 Scaling Up 趨勢。模型能夠在多步生成中逐步細化用戶意圖,并通過迭代推理持續(xù)收緊語義約束,從而生成結(jié)果更貼合個體偏好。

尤其當推理步數(shù)從 3 步提升到 5 步時,Recall 指標出現(xiàn)明顯躍升,其中 Recall@1 提升 123%,Recall@100 提升 37%。當推理步數(shù)進一步增加到 6 步時,REG4Rec 的 Recall@100 開始超越傳統(tǒng)檢索式方法,這表明,推理增強的生成式推薦不僅在個性化表達與意圖理解上具備優(yōu)勢,也在泛化能力與召回效果上超過判別式范式。



圖 5 REG4Rec 推理步數(shù) Scaling Up

4.2 在線實驗

在阿里巴巴 Lazada 推薦廣告業(yè)務中,REG4Rec 進行了超大規(guī)模線上 A/B 測試中。REG4Rec 在多項核心業(yè)務指標上取得顯著提升,并已完成全流量推全。



圖 6 REG4Rec 在線實驗效果

五、總結(jié)與展望

生成式推薦正在從「能生成」走向「會推理」。當推薦不再停留在表征匹配,而是像大語言模型一樣把推理過程納入生成本身,模型就能在多步生成中持續(xù)思考、選擇和反思,從而更貼近用戶真實興趣與決策邏輯。REG4Rec 沿著這一思路,將「推理即生成」的范式落到工業(yè)級推薦系統(tǒng)中,并圍繞表征、訓練與部署三條主線打通端到端鏈路。

在表征側(cè),MMQ 并行語義碼本與動態(tài)解碼空間共同擴展了更大規(guī)模的決策空間;在訓練側(cè),基于 GRPO 的偏好對齊與多步獎勵設計,顯式引導模型在該空間內(nèi)進行有效探索,逐步學習到更一致、更可靠的語義軌跡;在部署端,一致性驅(qū)動的反思剪枝配合多步松弛檢索,在控制計算開銷的同時抑制語義漂移、降低漏召風險,讓生成策略與線上檢索機制更自然對齊。展望未來,生成式推理仍有三條值得持續(xù)深入的方向:

  • 更具結(jié)構(gòu)化的反思糾偏機制:當前線上主要依靠一致性信號對解碼軌跡做實時篩選與剪枝,能夠有效壓制語義漂移,但對早期錯誤往往缺少可學習的定位與修正能力。下一步更關(guān)鍵的是把反思從規(guī)則化過濾升級為模型內(nèi)生的推理能力,在生成過程中引入結(jié)構(gòu)化的反思與糾偏機制,讓模型能夠顯式識別偏差并進行針對性修正,從源頭緩解自回歸帶來的誤差累積,進一步提升長鏈推理的穩(wěn)定性與可控性。

  • 更具差異性的多目標建模:電商推薦天然是多目標系統(tǒng),點擊信號密集而轉(zhuǎn)化信號稀疏,二者的學習難度與決策邏輯并不對等,但不少方法在點擊與轉(zhuǎn)化上仍沿用近似同構(gòu)的結(jié)構(gòu)與訓練目標。未來可以面向轉(zhuǎn)化等高價值行為做更有針對性的建模與訓練,讓模型在推理時更聚焦高指示性線索,真正做到按目標組織推理路徑與生成策略。

  • 更靈活的獎勵融合機制:目前的多獎勵融合仍相對簡單,難以刻畫不同信號之間的協(xié)同與制約關(guān)系。后續(xù)需要探索更自適應的獎勵融合與權(quán)衡策略,使模型在命中率、語義連貫、類目對齊與檢索覆蓋之間實現(xiàn)更穩(wěn)定的平衡,持續(xù)逼近帕累托最優(yōu),并提升跨場景遷移與泛化能力。

團隊介紹:本文來自阿里國際-智能技術(shù)-Lazada推薦廣告算法團隊。團隊聚焦生成式推薦、大模型算法、用戶超長序列建模與多場景建模等前沿方向,致力于構(gòu)建工業(yè)級推薦大模型,通過更深刻地洞察用戶個性化偏好與決策邏輯,持續(xù)提升商家投放效益與平臺收益。近年來,團隊在前沿算法領(lǐng)域持續(xù)深耕,已在 WWW、SIGIR、CIKM、WSDM 等頂級學術(shù)會議發(fā)表多篇高質(zhì)量論文。也歡迎感興趣的同學加入我們,共同開創(chuàng)AI推薦的新篇章。

組內(nèi)前序工作:

[1]. Haibo Xing, Kanefumi Matsuyama, Hao Deng, Jinxin Hu, Yu Zhang, and Xiaoyi Zeng. 2025. ESANS: Effective and Semantic-Aware Negative Sampling for Large-Scale Retrieval Systems. In Proceedings of the ACM on Web Conference 2025 (Sydney NSW, Australia) (WWW ’25). Association for Computing Machinery, New York, NY, USA, 462–471.

[2]. Hao Deng, Haibo Xing, Kanefumi Matsuyama, Yulei Huang, Jinxin Hu, Hong Wen, Jia Xu, Zulong Chen, Yu Zhang, Xiaoyi Zeng, et al . 2025. Heterrec: Heterogeneous information transformer for scalable sequential recommendation. In Proceedings of the 48th International ACM SIGIR Conference on Research and Development in Information Retrieval. 3020–3024.

[3]. Yi Xu, Moyu Zhang, Chenxuan Li, Zhihao Liao, Haibo Xing, Hao Deng, Jinxin Hu, Yu Zhang, Xiaoyi Zeng, and Jing Zhang. 2025. MMQ: Multimodal Mixture-of-Quantization Tokenization for Semantic ID Generation and User Behavioral Adaptation. arXiv:2508.15281 [cs.IR] https://arxiv.org/abs/2508.15281

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
A股:剛剛,重磅消息,局勢失控F15被擊落,一板塊將繼續(xù)主升浪

A股:剛剛,重磅消息,局勢失控F15被擊落,一板塊將繼續(xù)主升浪

云鵬敘事
2026-03-03 00:00:10
伊朗開展“真實承諾-4”行動第13輪攻擊

伊朗開展“真實承諾-4”行動第13輪攻擊

界面新聞
2026-03-03 07:09:04
女孩當小姐,一晚要提供4到5次上門服務,2015年被親人點到不赴約

女孩當小姐,一晚要提供4到5次上門服務,2015年被親人點到不赴約

漢史趣聞
2025-11-08 09:27:32
紅樓夢:難怪寶玉第一次“干人事”要找襲人,看襲人做了什么動作

紅樓夢:難怪寶玉第一次“干人事”要找襲人,看襲人做了什么動作

談史論天地
2026-02-26 11:13:38
寧可放棄中國市場,也不刪鏡頭!《蜘蛛俠:英雄無歸》沒引進的真相終于來了

寧可放棄中國市場,也不刪鏡頭!《蜘蛛俠:英雄無歸》沒引進的真相終于來了

小椰的奶奶
2026-03-02 10:32:14
77歲,雙癌,腫瘤緊貼心臟跳動!上海醫(yī)生僅用35分鐘一針消融病灶

77歲,雙癌,腫瘤緊貼心臟跳動!上海醫(yī)生僅用35分鐘一針消融病灶

文匯報
2026-03-02 19:00:26
孩子越大,越要告訴他這五句人生真相:比成績更重要的,是活好這一生

孩子越大,越要告訴他這五句人生真相:比成績更重要的,是活好這一生

青蘋果sht
2026-02-20 05:52:21
王一博聊天記錄,炸出歐陽娜娜綦美合陳飛宇,八年愛恨、閨蜜反目

王一博聊天記錄,炸出歐陽娜娜綦美合陳飛宇,八年愛恨、閨蜜反目

一盅情懷
2026-03-02 13:22:09
上海電影院現(xiàn)場被捉奸,帶情夫當老公面出軌,狗血女主角真容曝光

上海電影院現(xiàn)場被捉奸,帶情夫當老公面出軌,狗血女主角真容曝光

靜若梨花
2026-03-01 16:25:46
國家動真格了!不到48小時,4大名人禁言被封,沒有一個值得同情

國家動真格了!不到48小時,4大名人禁言被封,沒有一個值得同情

社會日日鮮
2026-03-03 05:19:50
26年堅定持有的十只黑馬股,預定翻倍增長?。ňx)

26年堅定持有的十只黑馬股,預定翻倍增長?。ňx)

漲多寶
2026-03-02 14:45:51
掛在墻上的那個人終于嘎了

掛在墻上的那個人終于嘎了

忽然亦周
2026-03-01 15:09:22
上海著名主持人直播中淚目!中東戰(zhàn)火下,有人平安返航、有人新婚分離、有人只想回家

上海著名主持人直播中淚目!中東戰(zhàn)火下,有人平安返航、有人新婚分離、有人只想回家

新民晚報
2026-03-02 14:52:26
研究發(fā)現(xiàn):每天多吃一個蛋,增加心血管和癌癥死亡風險,還能吃嗎

研究發(fā)現(xiàn):每天多吃一個蛋,增加心血管和癌癥死亡風險,還能吃嗎

甜檸聊史
2026-03-03 00:55:53
馮小剛春節(jié)后送女兒上學 臉貼臉說想她 給徐朵開車提行李很舍不得

馮小剛春節(jié)后送女兒上學 臉貼臉說想她 給徐朵開車提行李很舍不得

離離言幾許
2026-03-02 15:51:46
奔馳GLC價格“大跳水”!最高優(yōu)惠12.5萬,網(wǎng)友:還是選寶馬

奔馳GLC價格“大跳水”!最高優(yōu)惠12.5萬,網(wǎng)友:還是選寶馬

汽車網(wǎng)評
2026-03-02 22:56:03
洗草莓時,有人放食鹽,有人放面粉,果農(nóng):都不對,教你正確做法

洗草莓時,有人放食鹽,有人放面粉,果農(nóng):都不對,教你正確做法

阿龍美食記
2026-02-28 10:49:43
男子送相親對象回家遇其忘帶鑰匙,開房遭拒后女子怒斥男子真沒用

男子送相親對象回家遇其忘帶鑰匙,開房遭拒后女子怒斥男子真沒用

朗威談星座
2026-03-02 16:54:30
中東最大港口暫停運營

中東最大港口暫停運營

時間財經(jīng)
2026-03-02 16:17:05
周鴻祎:360鎖定3名潛伏長達十年的美國特工,并上報國家!

周鴻祎:360鎖定3名潛伏長達十年的美國特工,并上報國家!

達文西看世界
2026-03-02 11:48:37
2026-03-03 08:03:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12395文章數(shù) 142575關(guān)注度
往期回顧 全部

科技要聞

蘋果iPhone17e發(fā)布:4499元起 升級A19芯片

頭條要聞

媒體:遭受慘烈襲擊后 伊朗做了件"史無前例"的事

頭條要聞

媒體:遭受慘烈襲擊后 伊朗做了件"史無前例"的事

體育要聞

“想要我簽名嗎” 梅西逆轉(zhuǎn)后嘲諷對手主帥

娛樂要聞

李亞鵬與哥哥和解 只有一條真心話短信

財經(jīng)要聞

油價飆升 美伊沖突將如何攪動全球經(jīng)濟

汽車要聞

國民SUV再添一員 瑞虎7L靜態(tài)體驗

態(tài)度原創(chuàng)

房產(chǎn)
時尚
本地
親子
旅游

房產(chǎn)要聞

方案突然曝光!海口北師大附校,又有書包大盤殺出!

今年春天一定要擁有的4件衣服,太好看了!

本地新聞

津南好·四時總相宜

親子要聞

開學了!珠海香洲:筑牢安全防線,保障托育機構(gòu)順利開園復托

旅游要聞

橋納千江月 心懷一點春

無障礙瀏覽 進入關(guān)懷版