国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

美團LongCat-Next:把圖像、聲音、文字都變成Token,然后呢?

0
分享至



機器之心編輯部

近日,美團發(fā)布了一項頗具分量的多模態(tài)研究成果 ——LongCat-Next

這是一款離散原生自回歸多模態(tài)大模型,基于 LongCat-Flash-Lite MoE 架構構建,總參數(shù)量達 68.5B,激活參數(shù)僅 3B,能夠在統(tǒng)一框架下同時處理文本、圖像與音頻三種模態(tài)。



該模型的出現(xiàn),直接挑戰(zhàn)了多模態(tài)領域長期存在的一個認知:將視覺信息離散化為 Token 會導致嚴重的細節(jié)丟失,在 OCR、復雜圖表等細粒度理解任務上天然弱于連續(xù)特征模型。

LongCat-Next 是目前首個在純離散框架下,將上述細粒度視覺理解能力推至與專用連續(xù)模型相當水平的統(tǒng)一多模態(tài)模型,與同等參數(shù)量專用視覺模型 Qwen3-VL-A3B 相比毫不遜色。



在圖像生成方面,其長文本理解與文字渲染能力相較同類統(tǒng)一模型優(yōu)勢顯著,整體生成質量可與專用文生圖模型 Flux-dev 相抗衡。



在音頻方面,語音識別與理解能力超越了 Gemini 3.1 Flash-Lite preview、MiMo-Audio 等同量級模型。



LongCat-Next 還破解了視覺理解與生成之間的優(yōu)化沖突。

論文實驗表明,在同等 token 預算下,理解與生成的聯(lián)合訓練不僅沒有相互拖累,理解任務的訓練信號反而對生成質量有正向促進,這一結論與多數(shù)統(tǒng)一模型的實際經(jīng)驗相悖。

當所有模態(tài)都以離散 token 的形式在同一嵌入空間中共同訓練后,模型內(nèi)部自發(fā)涌現(xiàn)出一種跨模態(tài)的語義交融現(xiàn)象,視覺 token 與文本 token 在表示空間中形成交織分布。



  • 論文地址:https://github.com/meituan-longcat/LongCat-Next/blob/main/tech_report.pdf
  • GitHub:https://github.com/meituan-longcat/LongCat-Next
  • HuggingFace:https://huggingface.co/meituan-longcat/LongCat-Next
  • blog:https://longcat.chat/longcat-next/intro

下面,我們通過幾個具體 case 直觀感受下它的能力。

先睹為快,文圖音三模態(tài)初體驗

先來試下它的視覺理解能力

我們上傳一張愛樂之城配色的插花圖片,讓 LongCat-Next 識別其中的植物,并介紹各自特征。



提示詞:圖片中的花束包含哪幾種植物,分別有什么特征?

模型準確辨別出黃色多頭玫瑰、紫色洋桔梗、鼠尾草類香草及配葉植物,并對各自顏色、形態(tài)給出較為細致描述,還主動補充花束整體配色風格的分析。



我們又以三座風格各異的地標建筑為素材,考察模型對國內(nèi)城市地標的圖像識別能力。



提示詞:這三個地方分別是哪里?

LongCat-Next 準確識別出北京「望京之眼」、廣州中銀大廈及南京青奧中心三處建筑,并對每座地標建筑的背景信息有所掌握。

比如提到廣州中銀大廈的網(wǎng)絡外號「蟑螂大廈」及其獨特造型,以及南京青奧中心由扎哈?哈迪德設計等細節(jié)。



下面這道圖形推理題除了考察模型的圖像理解能力外,還涉及到抽象規(guī)律的歸納。



提示詞:Which option should be chosen for this question?

LongCat-Next 抓住其中門道,每幅圖形均由外框與內(nèi)部黑點兩個要素構成,并通過多組數(shù)據(jù)橫向比對,得出「外框邊數(shù) - 黑點個數(shù) = 2」這一隱藏規(guī)律,最終鎖定答案 B。



再看看圖像生成能力

LongCat-Next 生成的日出時分高山湖泊,無論構圖還是光影過渡,已接近專業(yè)風光攝影的質感。



prompt: A crystal clear mountain lake reflecting snow-capped peaks at sunrise. Still water, mirror-like reflection, pink and gold sky, pine trees along the shore.

下面這個 case 主要考察文字渲染能力。生成的馬克杯產(chǎn)品圖中,文字沒有變形或亂碼,整體呈現(xiàn)極簡風格。



prompt: A white mug on a wooden table with \"LongCat-Next\" printed on it in clean font. Simple background, morning light from a window, minimalist product photography.

LongCat-Next 生成的圣托里尼,色彩表現(xiàn)是最大亮點,藍頂白墻、三角梅、落日構成強烈且協(xié)調的撞色對比,很有氛圍感。



prompt: Santorini white buildings with blue domes overlooking the Aegean sea at sunset. Warm golden light, bougainvillea flowers, calm ocean, iconic Greek island view.

LongCat-Next 還支持任意分辨率輸出,即使是極端長寬比構圖需求,它同樣能穩(wěn)定生成。



視覺之外,LongCat-Next 同樣將音頻納入了統(tǒng)一的離散自回歸框架。

音頻理解能力能像處理文本一樣,對聲音信號做出準確、連貫的響應,涵蓋語音內(nèi)容識別與復雜場景語義理解等。

比如用四川話問它一道經(jīng)典邏輯謎題,LongCat-Next 沒有出現(xiàn)識別偏差或語義丟失,四川話的語音信號被準確轉化為可推理的語義內(nèi)容,并順暢進入后續(xù)邏輯分析流程。

這在一定程度上說明,LongCat-Next 的音頻離散化表示具備相當?shù)聂敯粜?,方言、口音等聲學變體并不會成為理解鏈路上的斷點。



給它一段環(huán)境錄音,它從持續(xù)、有節(jié)奏的「咔噠」聲與汽笛聲中,準確判斷出錄制地點為火車站、地鐵站或者鐵路軌道附近。

由此可見,LongCat-Next 可以綜合多個聲學線索完成場景級語義推斷。



它還能敏銳感知到話里話外的情緒。比如一段男聲音頻中,LongCat-Next 不僅聽懂了字面內(nèi)容,還從提高的音量與急促的語速中,判斷出說話者情緒激動、帶有明顯怒意。



除了「聽懂」音頻,LongCat-Next 還具備語音合成與聲音克隆能力

提供一段帶有濃重廣味的普通話作為參考音頻,讓它在保留說話人音色特征的同時,合成全新的目標內(nèi)容。

合成音頻還原了說話人的嗓音質感,那股辨識度極高的粵腔普通話韻味也被完整保留。



切換到英文場景,同樣給出參考音頻,要求模型克隆音色并復述指定內(nèi)容。

LongCat-Next 準確捕捉到說話者的音色特征與口音習慣,輸出的合成語音在聽感上與原聲高度貼近,目標內(nèi)容的表達也清晰準確。



當「萬物」都變成 Token

模型開始真正統(tǒng)一世界

今天的大模型,在核心建模范式上,仍以「預測下一個 token」為基礎。但問題在于,這個 token,長期只屬于語言。LongCat-Next 將這一理念延伸至多模態(tài)領域,提出了離散原生自回歸(DiNA)框架

在該框架下,圖像和音頻等連續(xù)信號被轉化為與文本共享表示空間的離散 token。在統(tǒng)一 token 表示下,大幅減少了為不同模態(tài)設計專用架構的需求。視覺理解與生成、音頻處理等任務,在核心建模上被統(tǒng)一為自回歸預測過程。



通過成對的 tokenizer,將多模態(tài)能力擴展到一種類似語言建模的原生框架之中。

如何把高維視聽信號無損變成 Token 并還原?

首先的問題是,圖像真的能變成 token 嗎?

語言天然是離散的,但視覺不是。一張圖像,是高維、連續(xù)、信息密度極高的信號,一旦壓縮成有限 token,很容易發(fā)生語義丟失(看不懂)、 細節(jié)丟失(畫不出來)。

LongCat-Next 把這個問題抽象成一個核心原則:語義完備性。也就是說,token 化之后,模型基于 token 做出的判斷,應盡可能接近直接基于原始圖像的判斷。

為了將高維的視覺信號轉化為離散 token 且盡量減少信息損失,LongCat-Next 設計了名為dNaViT(Discrete Native Resolution Vision Transformer)的視覺 Tokenizer 。

該 Tokenizer 的核心包含三個關鍵部分:

SAE(語義對齊編碼器):模型采用經(jīng)過大規(guī)模圖文對齊訓練的視覺編碼器作為預量化特征的基礎。這類編碼器不僅能夠捕獲高層語義概念,同時也保留了細粒度的視覺屬性,為后續(xù)離散建模提供語義基礎。

RVQ 壓縮(殘差向量量化):為了將連續(xù)特征映射到有限的離散代碼本中,模型引入多層級聯(lián)的 RVQ 機制。它通過逐層量化殘差誤差的方式不斷逼近原始表示,從而在壓縮率與信息保真之間取得更好的平衡。

dNaViT 原生分辨率:傳統(tǒng)視覺模型通常依賴固定分辨率輸入,這在縮放或裁剪過程中不可避免地帶來信息損失。dNaViT 則直接在原生分辨率下處理任意長寬比圖像,將視覺信號轉化為變長 token 序列,從而最大程度保留細節(jié)信息。



在將圖像轉換為 token 的過程中,研究人員觀察到一個內(nèi)在的信息保留現(xiàn)象:即使視覺編碼器沒有接受像素級重建訓練,只要其結構中包含殘差連接,就會自然保留一條低層信號傳播路徑。

換句話說,殘差,就是保住珍貴像素細節(jié)的「保鮮通道」

在這種結構下,淺層的像素級與結構細節(jié)可以通過恒等映射直接傳遞到深層,不會被高層語義完全覆蓋。這也意味著,在離散化之前,模型內(nèi)部已經(jīng)隱式保留了部分用于圖像重建的底層信息。



基于不同凍結視覺編碼器的視覺重建,使用輕量級像素解碼器訓練。結果表明,殘差連接固有地保留了用于低級信號傳播的潛在路徑。

那么,在生成階段,模型如何將離散 token 重新還原為圖像?

首先,這些離散代碼嵌入會被送入一個基于視覺 Transformer(ViT)的像素解碼器中,用于恢復圖像的空間布局與對象結構等基礎內(nèi)容。隨后,模型引入一個基于流匹配訓練的圖像細化器,在結構結果之上進一步補充紋理與高頻細節(jié),最終生成高質量圖像。

可以理解為:第一階段負責「還原結構」,第二階段負責「提升觀感」。



dNaViT 的 tokenizer 與 de-tokenizer 訓練流程:通過殘差向量量化(RVQ)將圖像編碼為離散 token,并通過像素解碼器在任意分辨率下將其解碼回圖像空間。

聲音同樣被納入統(tǒng)一的離散建模體系中。模型首先利用Whisper 編碼器提取音頻的語義與副語言特征(如語氣、情感等),隨后通過下采樣與 RVQ 壓縮為離散音頻 token。

在解碼端,模型先恢復粗略的梅爾頻譜,再通過基于流匹配的模型進行細化,從而顯著提升語音合成的聲學保真度與音質表現(xiàn)。



通過上述設計,LongCat-Next 最終證實了一個重要的觀點:信息的豐富度并不必然依賴于連續(xù)的空間

團隊在后續(xù)的評測中,用一系列的理解任務指標直接證明了這一點:即使是一張包含密集圖表、海量文字的極其復雜的圖像(例如在 OmniDocBench 等重度文檔問答任務中),在被強行壓縮成有限的離散 token 后,依然能夠精準回答關于該圖像的所有 QA、Caption 以及邏輯推理任務 。

這意味著,在跨越模態(tài)的轉換中,圖像的核心信息并沒有消亡。這堆看似有限且抽象的離散 ID,實質上已經(jīng)成為了高維、連續(xù)視覺信號的一種極度緊湊且語義完備的等價表示 。它們不僅成功鎖住了視覺世界的骨相與細節(jié),更變成了語言模型能夠毫無障礙、直接閱讀的「通用母語」。



LongCat-Next 在復雜視覺理解任務中的表現(xiàn)。即使面對排版密集的報紙、復雜的幾何圖表與邏輯推理題,轉化為離散 token 后的模型依然能夠精準提取信息并進行深度邏輯推理,證明了該離散表示的語義完備性。

另外,對比近期的一些架構演進,「殘差機制」在不同場景下呈現(xiàn)出截然不同的作用。

在 LongCat 的視覺編碼階段,殘差更像是一條「保留通道」。由于網(wǎng)絡相對較淺,且目標是盡可能無損地保留原始像素信息,殘差的恒等映射特性能夠有效防止底層細節(jié)被高層語義覆蓋。

而在 Kimi 團隊最近大火的 Attention Residuals 工作中,當語言模型深度達到上百層時,傳統(tǒng)殘差累加反而會演變?yōu)椤感畔⑾♂尅埂T缙趯有畔⒃趥鞑ブ兄饾u衰減,同時隱狀態(tài)不斷擴張,帶來穩(wěn)定性問題。因此,該工作引入注意力機制對殘差信息進行選擇性傳遞。

LLM 的「大腦」如何處理信息?

在 DiNA 框架下,所有輸入(無論是文本、圖像還是語音)在進入模型之前,都會被轉換為統(tǒng)一格式的離散 token。隨后,它們被送入同一個解碼器架構中,由一個模態(tài)無關的混合專家網(wǎng)絡(Modality-Agnostic MoE)統(tǒng)一處理

這意味著,傳統(tǒng)多模態(tài)模型中視覺分支、語音分支、跨模態(tài)對齊模塊等常見的結構,在這里被徹底取消。主干路徑被統(tǒng)一為:token → 共享嵌入 → 自回歸建模,但在輸入與輸出端仍保留模態(tài)相關組件。

換句話說,大模型的「多模態(tài)能力」,不再來自結構拼接,而是來自表示統(tǒng)一

理解與生成并不沖突

傳統(tǒng)的觀點認為,理解和生成是兩個相互競爭的目標 。但在 LongCat-Next 中,它們被統(tǒng)一為同一自回歸預測過程中的兩種表現(xiàn)形式。實驗證明,將視覺理解與生成置于統(tǒng)一的自回歸目標下進行聯(lián)合訓練,兩者并未產(chǎn)生容量沖突

在同等 token 數(shù)量的訓練下,統(tǒng)一模型(Unified model)的損失與純理解模型(Pure-Und.)的差距微乎其微(僅相差 0.006) ,同時其損失甚至比純生成模型(Pure-Gen.)還要低 0.02 。



這意味著,生成任務不會削弱理解能力,反而理解任務的引入會進一步提升生成表現(xiàn)。

為了保證生成語音的邏輯連貫性,模型借鑒了內(nèi)部文本引導的思想,將文本作為語音生成過程的一部分進行顯式建模。

串行生成:模型先生成引導性的文本片段,再生成對應音頻片段。這一方式在每一步只需預測單一模態(tài) token,有效避免模態(tài)間干擾,從而保證語義準確性。

并行生成:模型在每一步同時生成文本與音頻 token,并通過延遲首個音頻 token 的生成步數(shù),實現(xiàn)與文本的對齊。該策略顯著降低響應延遲,更適用于實時對話場景。

為了統(tǒng)一這兩種策略,團隊提出了一種基于隨機延遲的訓練范式:在訓練過程中隨機采樣文本與音頻的對齊延遲,使模型學習更魯棒的跨模態(tài)對齊能力。

實驗顯示,在該訓練方式下,并行生成在效率與語義準確度上均可達到與串行生成相當?shù)乃健?/p>



兩種具有內(nèi)部語言引導的語音生成策略。 用戶的輸入音頻被視為純音頻模態(tài),而由 LongCat-Next(或助手)生成的輸出則被視為文本引導的音頻模態(tài)。為了指示模態(tài)轉換并促進分段對齊,團隊引入了三個特殊標記:AS(Audio Start,音頻開始)、AE(Audio End,音頻結束) 和 TE(Text End,文本結束),分別表示音頻片段的起始和結束,以及文本片段的結束。

基礎設施保障:V-Half 流水線調度

在多模態(tài)模型中,計算負載本質上是異構的 。圖、音、文在 Embedding 層和特定模態(tài)損失模塊(如深度 Transformer)的計算耗時存在顯著差異,且會隨每條樣本中模態(tài) token 分布的不同而動態(tài)波動 。傳統(tǒng)的線性流水線并行會導致嚴重的級間負載不均、高昂的點對點通信開銷以及大量的算力氣泡 。

為解決這一系統(tǒng)瓶頸,團隊采用了基于V-Half的流水線調度策略 。該策略通過「V 型調度」,將計算流水線的第一個階段(Embedding 層)和最后一個階段(模態(tài)特定的損失模塊)「折疊」并共置于同一個物理設備上 。



這種物理層面的共置設計,不僅通過吸收動態(tài)計算開銷有效消除了流水線氣泡、實現(xiàn)了近乎完美的負載均衡 ,還使得這兩端模塊之間的前向激活和反向梯度傳遞可以通過零拷貝的設備內(nèi)內(nèi)存訪問完成,顯著減少了跨階段通信開銷。

實驗細節(jié)與未來工作

在視覺生成數(shù)據(jù)上,為避免模型陷入同質化審美(即過度偏向高頻的「AI 風格」),團隊引入了基于聚類的重平衡策略。通過對高密度集群進行去重,并提高稀疏長尾概念(如罕見動植物、專業(yè)儀器)的采樣權重,從數(shù)據(jù)源頭上保障了生成內(nèi)容的多樣性。



左圖: 數(shù)據(jù)整理與訓練流程包含三個階段:(I)預訓練:通過過濾和重新描述實現(xiàn)基本對齊;(II)中期訓練:通過語義聚類和重平衡解決數(shù)據(jù)不平衡問題;(III)監(jiān)督微調:基于高質量、遵循指令的數(shù)據(jù),提升美學質量和文本渲染效果。右圖: 圖像來源的分布情況。

將多模態(tài)數(shù)據(jù)離散化為 token 的另一項技術紅利,體現(xiàn)在強化學習階段。離散視覺潛在空間天然可以作為動作空間,使模型能夠直接套用語言模型成熟的 RL 算法(如 GRPO)來提升畫圖和理解能力,避免了連續(xù)空間中復雜的采樣與映射過程。



在針對圖像理解進行 RL 訓練時,團隊遭遇了嚴重的「熵爆炸」問題。當極少數(shù) token 存在訓練 - 推理概率失配時,微小的亂碼噪聲會在長序列生成中累積放大,導致輸出崩潰。團隊最終通過設計基于熵和概率差的「序列級過濾機制」,在梯度更新前精準丟棄包含致命錯亂的樣本序列,成功穩(wěn)定了 RL 的訓練過程。

整體來看,LongCat-Next 的后續(xù)工作,仍將圍繞兩個核心問題展開:一是如何在更高壓縮率下維持跨模態(tài)語義完備性;二是如何在統(tǒng)一 token 空間中進一步提升長序列與復雜任務下的穩(wěn)定性與可控性。

結語

論文在最后探討了一個非常有趣的觀點:「柏拉圖表征假說」。在柏拉圖的哲學理念中,現(xiàn)實世界的萬事萬物,都只是完美「理念」的影子。映射到深度學習中,文本、圖像和聲音,本質上也是對同一個客觀現(xiàn)實的不同表達途徑。

在傳統(tǒng)的拼接式模型中,圖、音、文往往各自為陣,在特征空間里形成割裂。但當它們被置于 DiNA 這種完全原生的離散框架下時,實驗觀測到了一個美妙的現(xiàn)象:視覺和文本 token 的特征分布自然地交織在了一起。

它們不再是需要被強行對齊的異類,而是變成了表達同一個底層概念的「世界語言」。無論是屏幕上的像素,還是麥克風里的聲波,最終都在模型的高維語義空間中,化為了同一種思維的漣漪。

客觀地看,目前的探索仍是一個起點。正如團隊在未來工作中所指出的,當前的評估主要通過圖像到文本(理解)和文本到圖像(生成)等經(jīng)典任務,成功驗證了這種離散原生架構的可行性與語義完整性。然而,距離真正意義上的通用多模態(tài)智能仍有距離。

團隊指出,未來的原生多模態(tài)系統(tǒng)絕對不應局限于這些傳統(tǒng)的單一方向 。理所當然的下一步,是必須走向更復雜的「任意到任意」的交織推理 。這意味著未來的輸入和輸出將是文本、視覺和音頻的任意組合 ,甚至涵蓋長上下文的多模態(tài)交互、多輪視覺對話,以及不同模態(tài)之間動態(tài)相互制約的組合生成 。只有實現(xiàn)這種靈活、統(tǒng)一的交互,模型才能真正從「特定任務的專家」進化為「通用多模態(tài)智能」 。

文中視頻鏈接:https://mp.weixin.qq.com/s/IzzNLPI9L2tSRvOXniOJ2Q

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
看完不到15萬起的東風日產(chǎn)NX8,感覺以前的車,賣的太貴了

看完不到15萬起的東風日產(chǎn)NX8,感覺以前的車,賣的太貴了

汽車情報
2026-04-09 17:06:13
金元浩/徐承宰首奪亞錦賽男雙冠軍,刷新該項目21世紀最長連勝紀錄

金元浩/徐承宰首奪亞錦賽男雙冠軍,刷新該項目21世紀最長連勝紀錄

懂球帝
2026-04-12 18:54:04
逼走陳忠和,打壓劉國梁,排擠郎平,90歲“體壇惡人”如今啥情況

逼走陳忠和,打壓劉國梁,排擠郎平,90歲“體壇惡人”如今啥情況

拳擊時空
2026-04-04 06:04:24
美伊談判失敗,特朗普準備開戰(zhàn),伊朗表態(tài)太高明,中國發(fā)出警告

美伊談判失敗,特朗普準備開戰(zhàn),伊朗表態(tài)太高明,中國發(fā)出警告

天氣觀察站
2026-04-12 18:26:15
天?。】吹?987年春晚觀眾席的遲重瑞,才懂陳麗華為啥一見鐘情

天?。】吹?987年春晚觀眾席的遲重瑞,才懂陳麗華為啥一見鐘情

真的八卦小學弟
2026-04-12 00:30:12
美方提醒:若雙方談不攏,中國的武器裝備可能會去美國大門口

美方提醒:若雙方談不攏,中國的武器裝備可能會去美國大門口

地球記
2026-04-12 10:51:39
000929,申請撤銷退市風險警示!

000929,申請撤銷退市風險警示!

證券時報e公司
2026-04-12 17:36:43
再次提醒大家:出門在外盡量不要和陌生人發(fā)生沖突!

再次提醒大家:出門在外盡量不要和陌生人發(fā)生沖突!

夜深愛雜談
2026-04-12 17:32:43
父母悄悄存下的大額存單,正為無數(shù)家庭矛盾埋下隱形雷區(qū)

父母悄悄存下的大額存單,正為無數(shù)家庭矛盾埋下隱形雷區(qū)

復轉這些年
2026-04-10 11:00:09
東契奇最新動態(tài):在斯洛文尼亞陪女兒 下階段治療結束與湖人會合

東契奇最新動態(tài):在斯洛文尼亞陪女兒 下階段治療結束與湖人會合

羅說NBA
2026-04-12 06:24:57
紅娘離職、機構甩鍋,上海一女子遇婚介“優(yōu)質男”被陷網(wǎng)貸陷阱 ,背負百萬債務維權難

紅娘離職、機構甩鍋,上海一女子遇婚介“優(yōu)質男”被陷網(wǎng)貸陷阱 ,背負百萬債務維權難

縱相新聞
2026-04-12 16:56:04
5.99元起!小米冰淇淋正式發(fā)布

5.99元起!小米冰淇淋正式發(fā)布

安兔兔
2026-04-10 22:04:57
周末信息如何影響市場?明天是紅色星期一?還是黑色星期一?

周末信息如何影響市場?明天是紅色星期一?還是黑色星期一?

春江財富
2026-04-12 09:29:38
訂婚那天,公公突出提出彩禮66萬,但我家要出同等嫁妝,我:分手

訂婚那天,公公突出提出彩禮66萬,但我家要出同等嫁妝,我:分手

我是三月魚H
2026-04-11 17:32:34
恭喜俄羅斯和烏克蘭!打了1500天,終于打成全世界都喜歡的樣子!

恭喜俄羅斯和烏克蘭!打了1500天,終于打成全世界都喜歡的樣子!

溫讀史
2026-04-08 17:38:05
湖人掘金杠上了,疑似輪休老詹打爵士,推嚴父進坑和恩怨無關

湖人掘金杠上了,疑似輪休老詹打爵士,推嚴父進坑和恩怨無關

兵哥籃球故事
2026-04-12 15:20:08
后來,我才明白,斷聯(lián)后不刪除、不拉黑、不聯(lián)系的人,不是在等對方回頭,而是在等自己放下

后來,我才明白,斷聯(lián)后不刪除、不拉黑、不聯(lián)系的人,不是在等對方回頭,而是在等自己放下

品讀時刻
2026-04-12 09:08:19
新加坡網(wǎng)友發(fā)帖:“我接受不了自己以游客身份進入中國”。

新加坡網(wǎng)友發(fā)帖:“我接受不了自己以游客身份進入中國”。

荊楚寰宇文樞
2026-04-11 17:21:54
申花從負10到正1 只要5輪 特謝拉跟馬納法再踢下去 可能會再續(xù)

申花從負10到正1 只要5輪 特謝拉跟馬納法再踢下去 可能會再續(xù)

80后體育大蜀黍
2026-04-12 17:32:18
特朗普在匈牙利選戰(zhàn)最后時刻力挺歐爾班

特朗普在匈牙利選戰(zhàn)最后時刻力挺歐爾班

參考消息
2026-04-11 19:52:15
2026-04-12 19:36:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12729文章數(shù) 142623關注度
往期回顧 全部

科技要聞

理想稱遭惡意拉踩,東風日產(chǎn):尊重同行

頭條要聞

女子將閨蜜6.8萬紫貂大衣粘上粘鼠板 硬扯下來還撒謊

頭條要聞

女子將閨蜜6.8萬紫貂大衣粘上粘鼠板 硬扯下來還撒謊

體育要聞

五大聯(lián)賽首冠出爐?拜仁或提前4輪衛(wèi)冕德甲

娛樂要聞

46歲趙達官宣結婚!曾與殷桃談婚論嫁

財經(jīng)要聞

美伊談判破裂的三大癥結

汽車要聞

煥新極氪007/007GT上市 限時19.39萬起

態(tài)度原創(chuàng)

藝術
手機
時尚
游戲
軍事航空

藝術要聞

書法“初學者”如何選帖?這3大重點一定要牢牢記住!

手機要聞

“作弊” 內(nèi)幕曝光!3DMark回應將某知名國產(chǎn)手機除名:實測性能相差24%、溫度超過50℃

伊姐周六熱推:電視劇《八千里路云和月》;綜藝《乘風2026》......

突發(fā)!知名舅舅黨爆料:Xbox游戲發(fā)布會將在下周舉辦

軍事要聞

美國副總統(tǒng)萬斯:美伊談判未能達成協(xié)議

無障礙瀏覽 進入關懷版