国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

阿里媽媽發(fā)布MUSE:搞定十萬級超長行為序列,開源Taobao-MM數(shù)據(jù)集

0
分享至





機器之心發(fā)布

如果把用戶在互聯(lián)網(wǎng)上留下的每一個足跡都看作一段記憶,那么現(xiàn)在的推薦系統(tǒng)大多患有 “短期健忘癥”。

受限于算力和存儲,那些沉睡在數(shù)年前的點擊、收藏與購買,往往被粗暴地截斷或遺忘。即便被召回,它們在模型眼中也只是一串串冰冷且互不相識的 ID 代碼。但事實上,真正有趣的東西也往往藏在這些被遺忘的 “長尾” 之中。如何喚醒這 10 萬級 的沉睡數(shù)據(jù),并讀懂它們背后的視覺與語義關聯(lián)?

阿里媽媽與武漢大學團隊給出的答案是MUSE(MUltimodal SEarch-based framework)。這不僅僅是一個新的 CTR 模型,更像是一個給推薦系統(tǒng)安裝的 “多模態(tài)海馬體”。它利用圖像與文本的語義力量,重構了用戶跨越時空的興趣圖譜。

甚至,他們還開源了構建這個 “數(shù)字大腦” 的基石:Taobao-MM 數(shù)據(jù)集

對于推薦系統(tǒng)長久以來技術演進路線,這一突破可謂是一次深刻的反思與重構!



  • 論文標題:MUSE: A Simple Yet Effective Multimodal Search-Based Framework for Lifelong User Interest Modeling
  • 論文鏈接:https://arxiv.org/abs/2512.07216
  • 數(shù)據(jù)集鏈接:https://taobao-mm.github.io/

在搜推廣業(yè)務里,CTR 建模這幾年大致走過了這樣一條路:一方面,特征工程和 ID embedding 體系越來越完善,主流的 ID-based 建模方法基本都被嘗試過;另一方面,模型從只看短期行為,逐步演進到以 SIM 為代表的 “兩階段長期行為建! 框架,在不犧牲時延的前提下,把可用的歷史行為長度擴展到了萬級別。

這些演進的確帶來了可觀收益,但隨著歷史行為越來越長,單純在 SIM 類 ID-based 結構上疊加小改動,收益的邊際變得越來越難以拉高,尤其是在檢索精度受限的場景下,序列從萬級往上擴展,效果提升會明顯趨緩。

與此同時,一個趨勢越來越明顯:用戶在平臺上的行為序列變得極長,但絕大部分沒有被真正 “用起來”。在淘寶中,用戶多年積累下來的瀏覽、點擊、加購、購買,加起來輕松就是、百萬級行為序列。但受限于在線延遲、存儲和算力,實際部署中的模型通常只能使用最近幾千條行為,或者對整條序列做非常粗粒度的截斷和過濾。再疊加一個現(xiàn)實約束:現(xiàn)有主力 CTR 模型在建模長期興趣時,依賴的是高度稀疏的 ID 特征,長尾和過期 item 的 ID embedding 質量不佳,而它們在 “終身歷史” 里占比很高;另外即便把 10 萬條行為都拉了進來,模型看到的依舊主要是 “ID 共現(xiàn)關系”,而不是用戶真實的內容興趣。

在這樣的背景下,MUSE誕生了!

這是阿里媽媽和武漢大學團隊面向搜推廣業(yè)務提出的一個面向 “超長序列 + 多模態(tài)” 的終身興趣建模新框架。

與其在現(xiàn)有 SIM 類 ID-based 長序列結構上繼續(xù)做局部微調,MUSE 更關注的是利用多模態(tài)信息重新組織這 10 萬級行為,系統(tǒng)性提升 “終身興趣建! 的質量與可用長度。它在架構上與各類 “擴展 dense 參數(shù)、提升模型表達能力” 的工作基本正交:無論當前使用的是經(jīng)典 DNN 還是基于 Transformer 的推薦大模型結構,都可以把 MUSE 視為一個可插拔的 “終身興趣建模模塊”,與之疊加使用,共同放大收益。

目前,MUSE 已在阿里媽媽展示廣告精排模型中全量上線,具備對10 萬長度用戶原始行為序列的建模能力(并可結合聚類等方法持續(xù)向百萬級擴展),基于多模態(tài) embedding 統(tǒng)一表示并建模用戶行為,同時通過架構與工程協(xié)同優(yōu)化不增加任何延遲。在線上 A/B 實驗中,MUSE 帶來了穩(wěn)定、顯著的業(yè)務收益:CTR 提升 12.6%。同時,阿里媽媽也基于真實業(yè)務日志整理了首個 “長序列 + 多模態(tài) embedding” 的大規(guī)模數(shù)據(jù)集 Taobao-MM,對外開放,用于支持業(yè)界和學界在「長序列 × 多模態(tài)」方向的進一步研究。

下面從 “工業(yè)落地視角” 拆解 MUSE,一步步展開。



一、問題背景:終身行為建模,卡在哪?

在大規(guī)模搜推廣業(yè)務中,關于終身行為建模的主流架構已經(jīng)比較統(tǒng)一:以 SIM / TWIN 為代表的兩階段框架

  • GSU(General Search Unit)在用戶超長行為序列中,先做一次 “粗檢索”—— 從最多 10? 級行為中挑出與當前目標 item 相關的 Top-K(例如 50 條);
  • ESU(Exact Search Unit)再在這 K 條行為上做精細建模(DIN / Transformer 等各種 attention 結構),輸出 “終身興趣向量”,輸入 MLP 結構。

這樣的設計讓我們一方面可以利用超長行為,另一方面又不至于把在線模型的延遲與成本拉爆。

然而,業(yè)界兩階段模型(SIM、TWIN、UBR4CTR 等)的共性是:從頭到尾都圍繞 ID 展開。GSU 使用 ID embedding 做相似度檢索(比如基于類目、基于 ID embedding 近鄰、基于 attention score 等);ESU 中仍然只使用 ID embedding 做行為聚合(target attention /self-attention 等)。

對應地,又會暴露出兩類典型問題。

  • 長尾 / 過期 item 泛化能力弱:這類 ID 出現(xiàn)次數(shù)少,embedding 學得不充分;GSU 檢索質量直接受限 —— 歷史中與目標 item 實際高度相關的點擊行為,因為 ID embedding 不 “像”,可能被排除在 Top-K 之外。
  • ESU 語義表達力有限,只能依賴共現(xiàn):模型更多是在學 “誰經(jīng)常和誰一起被點”,對內容語義本身掌握不足;例如,用戶一直在逛 “黑色運動鞋”,一個新上的視覺相似的黑色休閑鞋廣告由于沒有歷史共現(xiàn)記錄,在純 ID 空間里很難被識別為 “強相關”。

為緩解上述問題,近兩年開始有工作嘗試把多模態(tài)信息引入終身行為建模。例如 MISS 在 GSU 階段引入圖文 embedding 用于檢索,但 ESU 階段仍然只使用 ID,不對多模態(tài)語義做融合建模。也就是說,檢索階段變 “聰明” 了一些,但建模階段仍然在老路上

二、核心洞察:GSU 要 “簡單”,ESU 要 “豐富 + 融合”

在 MUSE 之前,阿里媽媽做了大規(guī)模系統(tǒng)實驗,對多模態(tài)在 GSU 和 ESU 兩個階段的作用做了拆分分析,得到三個關鍵洞察,非常適合作為工業(yè)系統(tǒng)設計時的參考原則。



對 GSU:簡單的多模態(tài) cosine 就夠了。在 GSU 中,他們系統(tǒng)對比了幾種檢索方式:只用 ID embedding 做檢索;用多模態(tài) embedding(多種預訓練方式得到的多模態(tài) embedding,包括 OpenCLIP / I2I / SCL);在多模態(tài) embedding 上疊加 Attention 打分;ID 與多模態(tài)的各種 “加權融合” 檢索策略。結果非常直接:單純用高質量多模態(tài) embedding 做余弦相似度檢索,就已經(jīng)穩(wěn)定優(yōu)于 ID-only 的 GSU;再疊加復雜結構(Attention、ID-Multi 融合),要么效果提升有限甚至下降,要么算力和工程復雜度明顯增加,不具備性價比。結論是:在有高質量多模態(tài) embedding 的前提下,GSU 只需要一個輕量的余弦檢索就足夠好。GSU 屬于在線性能最敏感的一環(huán),在這層 “搞復雜”,往往收益極低甚至適得其反。

對 ESU:多模態(tài)序列建模 + ID 融合非常關鍵。在 ESU 端,重點做了兩方面增強:一是顯式建模多模態(tài)相似度序列,引入 SimTier,把 “目標 item 與每條歷史行為的多模態(tài)相似度序列” 壓縮為一個 “相似度直方圖”,作為語義興趣的一種 summary 表達;二是把多模態(tài)信號注入 ID-based attention,提出 SA-TA(Semantic-Aware Target Attention),在原有 ID-based target attention 打分的基礎上,將多模態(tài) cosine 相似度及其與 ID 打分的交互項融合進去,作為最終的 attention score。在大規(guī)模廣告數(shù)據(jù)上的實驗結果顯示:單獨使用 SimTier 的多模態(tài) ESU,相比只用 ID 的 Target Attention,GAUC 可以提升約 +0.7%;在此基礎上疊加 SA-TA,總體 GAUC 提升可達到約 +1.2%。這說明 ESU 和 GSU 的設計原則截然不同。

表征質量對 ESU 比 GSU 敏感得多。阿里媽媽對比了三類多模態(tài)預訓練方式:OpenCLIP(基于 2 億級圖文數(shù)據(jù)的對比學習)、I2I(基于 item 共現(xiàn)關系的對比學習,引入?yún)f(xié)同信號)、SCL(基于 “搜索 - 購買” 行為構造正樣本,兼具語義與行為相關性),F(xiàn)象是:在 GSU 只替換 embedding 類型時,效果變化相對溫和;在 ESU 替換 embedding 時,差異明顯:SCL > I2I > OpenCLIP。結論是:ESU 對多模態(tài) embedding 的質量極其敏感;GSU 更像 “粗粒度過濾器”,對表征精度的要求相對沒那么苛刻。

三、MUSE 框架詳解

基于上述分析,團隊落地了完整可部署的 MUSE 框架。整體可以拆成三步(下圖從左至右):

  1. 多模態(tài)表征如何預訓練:基于語義與行為的 SCL 對比學習;
  2. 多模態(tài) GSU 如何做:輕量余弦檢索;
  3. 多模態(tài)增強 ESU 如何做:SimTier + SA-TA 雙路建模。



底層采用 SCL 多模態(tài)預訓練。以圖像模態(tài)為例,所有 item 的圖像 embedding 預訓練方式如下:輸入包括用戶搜索 query 對應的圖像和該 query 下最終購買的商品圖像;正樣本 pair 由 query 與購買商品構成;負樣本 pair 通過 MoCo memory bank 動態(tài)構造;損失函數(shù)為 InfoNCE 對比學習(形式類似 CLIP,但正負樣本來自真實用戶搜購行為)。得到的 embedding 具備兩方面能力:內容語義(圖像信息的語義對齊)和行為相關性(與真實 “搜索 - 購買” 行為對齊)。在 MUSE 中,這些多模態(tài) embedding 在訓練 CTR 模型時為凍結參數(shù)(推理階段僅查表),便于保證線上性能的穩(wěn)定性和工程可控性。

GSU 使用 SCL embedding 做簡單 cosine Top-K。其目標是從用戶 10?~10? 級的歷史行為中,選出最相關的幾十條行為作為 ESU 的輸入。具體步驟包括:通過查 embedding 表獲取目標 item 的 SCL embedding(v_a)和用戶所有歷史行為 item 的 SCL embedding(v_i);計算每條歷史行為與目標 item 的相似度 r_i = cos (v_a, v_i);按 r_i 排序,取 Top-K,形成 “輸入給精排模型的行為子序列”。整個過程沒有復雜 Attention,也沒有 ID–MultiModal 的交織檢索,本質是一個高效的內積排序。

ESU 采用 SimTier + SA-TA 雙管齊下。其核心由兩條并行路徑構成。路徑 A 是SimTier—— 顯式建模 “相似度分布”:給定 GSU 得到的相似度序列 R = [r_1, ..., r_K],

  • 將相似度區(qū)間 [-1, 1] 等分為 N 個 bin(tier);
  • 統(tǒng)計每個 bin 內落入的行為個數(shù),得到一個 N 維 histogram:h_MM;
  • h_MM 可以理解為:用戶歷史行為中,與當前廣告 “高相關 / 中相關 / 低相關” 的數(shù)量分布,即一個緊湊的 “語義興趣分布向量”。

相比直接在多模態(tài) embedding 序列上堆復雜結構,這種方式計算開銷極小,并且在工業(yè)場景的實驗中,效果非?捎^。

路徑 B 是 SA-TA—— 在 ID attention 里注入多模態(tài)語義。這條路徑保留了 ID embedding 的優(yōu)勢(協(xié)同過濾信號),在此基礎上做 “語義增強”。

  1. 標準 DIN Target Attention:用 target ID embedding 與行為 ID embedding 做打分,得到 α_ID;
  2. 同步拿到多模態(tài)相似度 R(沿用 GSU 的 r_i);
  3. 將兩者融合為最終打分:α_Fusion = γ??α_ID + γ??R + γ??(α_ID ⊙ R),其中 γ 為可學習標量,⊙ 為逐元素乘;
  4. 用 Softmax (α_Fusion) 作為權重,對行為 ID embedding 做加權和,得到 u_l^ID。



直觀理解是原本 ID-based attention 對長尾 item 的打分容易失真;加上多模態(tài)相似度 R,相當于在告訴 attention: “這條行為雖然 ID 很冷,但在語義上和當前廣告高度相似,可以給更高權重!

最終用戶終身興趣表示由 SimTier 輸出的 h_MM 與 SA-TA 輸出的 u_l^ID 拼接而成,拼接后的向量作為 “終身興趣表示”,輸入上層 CTR MLP。至此,多模態(tài)在 ESU 中既有單獨一條序列建模路徑,又深入?yún)⑴c到 ID attention 的行為聚合過程。

四、工程落地:10 萬行為 + 多模態(tài),還能延遲可控?

超長序列 + 多模態(tài),直覺上看 “又長又貴”。MUSE 在線上通過一個非常偏工程的拆分設計實現(xiàn)延遲可控。



阿里媽媽展示廣告線上整體 pipeline 可粗略抽象為:Matching(從全庫召回約 103 個候選廣告)和 Ranking(CTR 模型對這些候選預估打分)。MUSE 被部署在 Ranking 階段,用于針對這些候選建模用戶的終身行為。

實踐發(fā)現(xiàn),最大瓶頸并不在算力,而是在網(wǎng)絡通信:需要拉取用戶 100k 行為序列及其對應 embedding,網(wǎng)絡與存儲訪問會引入不容忽視的時延。為此,團隊的改造重點是把 GSU 從 Ranking 的關鍵路徑中剝離出來,做異步預取。

具體分為兩個階段:

  • Pre-fetching 階段(與 Matching 并行)—— 用戶請求到達后,Matching 負責召回候選廣告,同時 GSU 服務開始從遠端存儲拉取用戶 100K 行為的多模態(tài) embedding,這些 embedding 預先緩存到 GPU 顯存中,該步驟的時延整體被 Matching 階段遮蔽掉;
  • 相似度計算 Top-K Selection 階段(Ranking 前的小環(huán)節(jié))—— 當 Matching 完成時,GSU 一側的行為 embedding 已經(jīng)就緒,此時只需對候選廣告與緩存的行為 embedding 做一次相似度計算即可,得到 Top-K 行為 ID 和相似度序列,交由 Ranking 服務的 ESU 使用,這部分計算量很小,可以與 Ranking 的特征處理并行完成,對整體時延影響極小。

在這樣的設計下,GSU 對端到端延遲幾乎是 “隱身” 的。新增成本主要在于存儲與網(wǎng)絡讀取負載(但被并行化掩蓋)以及 ESU 端增加的 MLP /attention/ SimTier 算力開銷(量級可控)。

線上對比實驗設置為:Baseline 是 SIM(兩階段 ID-only 架構,行為長度 5K),MUSE 是多模態(tài) GSU + 多模態(tài)增強 ESU,行為長度擴展至 100K。 A/B 結果顯示:CTR +12.6%、RPM +5.1%、ROI +11.4%。同時,在離線實驗中也對行為長度做了消融(5K / 10K / 100K),觀察到:序列越長,MUSE 帶來的收益越大;多模態(tài)增強 ESU 在所有長度上都顯著優(yōu)于 ID-only ESU,且長度越長,優(yōu)勢越明顯。這基本佐證了一個直觀判斷:當你手里有幾十萬級別的用戶歷史行為日志,多模態(tài) + 檢索式建模,確實能把這些 “沉睡日志” 轉化為有效的業(yè)務資產(chǎn)。

五、對業(yè)界的幾個直接啟發(fā)

如果你在做廣告 / 內容推薦 / 電商推薦,MUSE 這套實踐有幾個非常 “可復制” 的啟發(fā)點。

先別急著在 GSU 上玩花活:優(yōu)先把 item 的圖文 embedding 學好(無論是自建 CLIP、SCL,還是其它多模態(tài)預訓練);在此基礎上,用多模態(tài) cosine 取代 GSU 的 ID-only 檢索,往往是性價比最高的一步。Attention 檢索、復雜多塔融合等設計,在 GSU 這個階段不一定值得你花大量算力和工程復雜度。

把多模態(tài)引入 ESU,而不是只停留在 GSU:ESU 是真正決定 “特征如何被使用” 的地方,也是對 embedding 質量最敏感的環(huán)節(jié);即便暫時無法重構整個 ESU,也可以分兩步推進:一是引入一個輕量的 “相似度直方圖” 類模塊(如 SimTier)來刻畫語義分布;二是在現(xiàn)有 DIN / TWIN 的 attention 中,引入多模態(tài)相似度作為輔助打分(類似 SA-TA)。這類改造對現(xiàn)有模型結構的侵入性不大,但從實驗看收益往往很可觀。

工程上,優(yōu)先解決 “序列拉不進來” 的問題:多模態(tài) + 超長序列的最大障礙往往不在算法,而在 I/O 和基礎設施。MUSE 提供了一個可直接借鑒的模板:把 GSU 抽成獨立服務,盡量與 Matching 異步并行;盡可能將 embedding 搬到就近緩存(如 GPU 顯存);在 Ranking 階段只保留輕量計算,保證路徑收斂。這類設計思路,本質上是從 “只在舊框架上雕花”,轉向圍繞 “可擴展架構 + 高投產(chǎn)比” 重新規(guī)劃整條推薦鏈路。

六、開源數(shù)據(jù):首個 “超長行為 + 多模態(tài) embedding” 公開數(shù)據(jù)集

這篇工作還給社區(qū)帶來了一個附加價值:首個同時具備 “長行為序列+高質量多模態(tài) embedding” 的大規(guī)模公開數(shù)據(jù)集 Taobao-MM

其主要特點包括:

  • 用戶行為序列最長 1K(開源版本),工業(yè)內部實驗支持高達 100K;
  • 每個 item 提供 128 維 SCL 多模態(tài) embedding(不包含原始圖文,規(guī)避版權風險);
  • 數(shù)據(jù)規(guī)模約為 1 億樣本、近 900 萬用戶、3,500 萬級 item。

對學界研究者和工業(yè)界團隊來說,這是一個可以直接驗證 “多模態(tài)+長序列” 建模方案的基準數(shù)據(jù)集,有助于減少自建數(shù)據(jù)的成本。

七、小結:從 “只調 ID 模型” 到 “MUSE 多模態(tài)興趣引擎”

從 MUSE 和近期工業(yè)界的推薦系統(tǒng)演進可以看到一個共同趨勢:不再只在舊的 ID-only 框架上做局部微調,而是從軟硬件協(xié)同、架構層面,重新組織 “算力×特征×模型”。具體到 MUSE:

  • 結構觀上,接受 “用戶行為本質上是一個超大規(guī)模序列數(shù)據(jù)庫”,先檢索再建模;
  • 信號觀上,擺脫 ID-only 的限制,讓圖文 embedding 真正參與終身興趣建模;
  • 工程觀上,把最重的 I/O 和計算挪到異步與緩存,把在線關鍵路徑做得足夠輕量。

如果你的業(yè)務場景具備以下特征:用戶累積了較長行為日志(>> 萬條)、每個 item 具備圖文等豐富內容特征、純 ID-only 模型的收益已經(jīng)越來越難挖掘,那么可以考慮按這樣一個路線落地 “輕量版 MUSE”:先提高表征質量,評估現(xiàn)有圖文預訓練 embedding,或嘗試類似 SCL 的行為增強式預訓練;用多模態(tài)支撐 GSU,在現(xiàn)有兩階段結構中,優(yōu)先用多模態(tài) cosine 替代 GSU 的 ID 檢索;在 ESU 中融合多模態(tài),在 DIN / TWIN 的 target attention 中,引入一條 “多模態(tài)相似度支路”,觀察 offline 指標變化。這基本就是一個 “輕量版 MUSE” 的起點,后續(xù)可以逐步演進到完整的雙路 ESU 與異步 GSU 架構,在控制延遲的前提下,打開新的效果增量空間。

阿里媽媽技術團隊已在多模態(tài)智能領域取得多項突破,此次發(fā)布的 MUSE,不僅僅是算法的進步,更是工程與算法深度協(xié)同的典范。它告訴我們,在追求模型 “大” 的同時,也要注重 “巧” 和 “效率”,才能真正讓技術在工業(yè)界發(fā)揮最大能量。

One More Thing

ICLR 2026 Workshop 等你來稿

還有個好消息!阿里媽媽聯(lián)合北京大學等組織和個人,將在ICLR 2026 舉辦 Workshop on AIMS(AI for Mechanism Design & Strategic Decision Making),目前征稿已開啟!



如果你正在探索人工智能與機制設計、決策智能的交叉前沿

無論是自動機制發(fā)現(xiàn)、多智能體博弈均衡、高維/自然語言場景下的機制建模,

還是 AI 系統(tǒng)的公平性、魯棒性,亦或是廣告、云市場等真實場景的落地應用 ——

那么,這場 ICLR 2026 Workshop 正是為你而設!

  • 截稿日期:2026 年 1 月 30 日;
  • 接受 Long Paper(≤9 頁)與 Short Paper(≤4 頁),支持雙重投稿(可與 ICML/KDD 等會議多投),錄用不存檔;
  • 由 Tuomas Sandholm(CMU)、Song Zuo(谷歌)、Vijay V. Vazirani (UCI)、Niklas Karlsson (亞馬遜)、鄭臻哲 (上海交大) 等頂尖學者組成講者與審稿陣容;
  • 投稿地址:https://openreview.net/group?id=ICLR.cc/2026/Workshop/AIMS

此外,我們還設有 Best Paper 獎、Best Poster 獎,優(yōu)秀作者還有機會獲得阿里巴巴等企業(yè)的研究實習推薦!

這不僅是一場研討會,更是連接人工智能、經(jīng)濟學與運籌學的橋梁。

更多詳情,可戳 Workshop 官方網(wǎng)站:

https://alimama-tech.github.io/aims-2026/

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
李在明登機訪華前,美媒通告全球:中國已經(jīng)買了美國800萬噸大豆

李在明登機訪華前,美媒通告全球:中國已經(jīng)買了美國800萬噸大豆

軍機Talk
2026-01-03 10:07:26
今明兩天廣東將迎本輪降溫最低溫!化州天氣……

今明兩天廣東將迎本輪降溫最低溫!化州天氣……

化州社區(qū)
2026-01-03 17:51:07
用力過猛!51歲林志玲打扮“日系”現(xiàn)身上海,網(wǎng)友:又老又年輕

用力過猛!51歲林志玲打扮“日系”現(xiàn)身上海,網(wǎng)友:又老又年輕

完善法
2025-12-31 11:05:31
山西將出現(xiàn)弱降雪 大風 降溫天氣

山西將出現(xiàn)弱降雪 大風 降溫天氣

黃河新聞網(wǎng)呂梁頻道
2026-01-03 14:36:50
女網(wǎng)紅自稱與鹿晗林更新等多名男藝人存私密關系,多方發(fā)聲辟謠并稱將追責,律師分析

女網(wǎng)紅自稱與鹿晗林更新等多名男藝人存私密關系,多方發(fā)聲辟謠并稱將追責,律師分析

瀟湘晨報
2026-01-03 14:16:19
云南省德宏州委副書記、州長衛(wèi)崗接受審查調查

云南省德宏州委副書記、州長衛(wèi)崗接受審查調查

界面新聞
2026-01-03 14:40:33
女信徒把露肚史瑞克當佛像拜4年,網(wǎng)友安慰:心誠則靈。

女信徒把露肚史瑞克當佛像拜4年,網(wǎng)友安慰:心誠則靈。

環(huán)球趣聞分享
2026-01-03 14:00:06
抓捕馬杜羅:川普重啟門羅主義,美洲不是談判區(qū)

抓捕馬杜羅:川普重啟門羅主義,美洲不是談判區(qū)

老鳳說財經(jīng)
2026-01-03 18:06:04
尷尬四連勝,作為奪冠熱門,把球隊基石試出來!這么打容易成炮灰

尷尬四連勝,作為奪冠熱門,把球隊基石試出來!這么打容易成炮灰

老梁體育漫談
2026-01-03 00:43:04
河南兩地紀委監(jiān)委通報

河南兩地紀委監(jiān)委通報

濮陽市廣播電視臺
2026-01-02 19:00:38
為什么“阿拉伯兄弟”不幫伊朗?——披著穆斯林羊皮的波斯獨狼

為什么“阿拉伯兄弟”不幫伊朗?——披著穆斯林羊皮的波斯獨狼

Wilsonhe8
2025-06-19 02:11:33
古人指出北平建都有巨大弊端,毛主席也猶豫,一高人幫他下定決心

古人指出北平建都有巨大弊端,毛主席也猶豫,一高人幫他下定決心

鶴羽說個事
2026-01-03 11:17:57
美軍迅雷不及掩耳拿下馬杜羅,對哈梅內伊是個巨大觸動

美軍迅雷不及掩耳拿下馬杜羅,對哈梅內伊是個巨大觸動

Ck的蜜糖
2026-01-03 18:07:50
傳奇落幕!捷豹汽車正式宣布全面停產(chǎn)

傳奇落幕!捷豹汽車正式宣布全面停產(chǎn)

XCiOS俱樂部
2026-01-02 14:51:14
谷歌首席工程師自曝:公司 1 年的項目,被 Claude 僅用 1 小時搞定了!

谷歌首席工程師自曝:公司 1 年的項目,被 Claude 僅用 1 小時搞定了!

AI范兒
2026-01-03 16:08:36
翟立波已任濟南市鋼城區(qū)委書記

翟立波已任濟南市鋼城區(qū)委書記

中國山東網(wǎng)
2026-01-02 18:42:59
張水華離職登上熱搜第一!22萬獎金50天到手,同事終于不擔心了!

張水華離職登上熱搜第一!22萬獎金50天到手,同事終于不擔心了!

你食不食油餅
2026-01-02 23:14:48
俄軍也沒想到,一天占領15座無抵抗陣地!美媒調整俄軍勝利時間表

俄軍也沒想到,一天占領15座無抵抗陣地!美媒調整俄軍勝利時間表

影孖看世界
2026-01-02 22:17:18
2026電價大改革來了!徹底告別固定價,家里企業(yè)電費都要變

2026電價大改革來了!徹底告別固定價,家里企業(yè)電費都要變

老特有話說
2026-01-02 22:04:55
能插存儲卡、帶耳機口、可拆后蓋,剛公布這新機有點意思!

能插存儲卡、帶耳機口、可拆后蓋,剛公布這新機有點意思!

劉奔跑
2026-01-03 14:26:40
2026-01-03 18:44:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12033文章數(shù) 142527關注度
往期回顧 全部

科技要聞

比亞迪銷冠!特斯拉2025年交付量跌逾8%

頭條要聞

美國突襲委內瑞拉抓獲馬杜羅 多國強烈譴責

頭條要聞

美國突襲委內瑞拉抓獲馬杜羅 多國強烈譴責

體育要聞

快船似乎又行了

娛樂要聞

“國服嫂子”司曉迪,曝與多位男星私照

財經(jīng)要聞

具身智能搶人大戰(zhàn):畢業(yè)一年 年薪300萬

汽車要聞

奕派科技全年銷量275,752輛 同比增長28.3

態(tài)度原創(chuàng)

本地
時尚
旅游
公開課
軍事航空

本地新聞

即將過去的2025年,對重慶的影響竟然如此深遠

今年最時髦的穿法:長外套+長褲,太高級了!

旅游要聞

賞冰雪、看秧歌、趕大集 寶清文旅融合迎新年

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普稱將干涉伊朗騷亂事件 伊朗政府發(fā)聲明強烈譴責

無障礙瀏覽 進入關懷版