国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

美團LongCat-Next:把圖像、聲音、文字都變成Token,然后呢?

0
分享至



機器之心編輯部

近日,美團發(fā)布了一項頗具分量的多模態(tài)研究成果 ——LongCat-Next

這是一款離散原生自回歸多模態(tài)大模型,基于 LongCat-Flash-Lite MoE 架構(gòu)構(gòu)建,總參數(shù)量達 68.5B,激活參數(shù)僅 3B,能夠在統(tǒng)一框架下同時處理文本、圖像與音頻三種模態(tài)。



該模型的出現(xiàn),直接挑戰(zhàn)了多模態(tài)領(lǐng)域長期存在的一個認知:將視覺信息離散化為 Token 會導(dǎo)致嚴重的細節(jié)丟失,在 OCR、復(fù)雜圖表等細粒度理解任務(wù)上天然弱于連續(xù)特征模型。

LongCat-Next 是目前首個在純離散框架下,將上述細粒度視覺理解能力推至與專用連續(xù)模型相當(dāng)水平的統(tǒng)一多模態(tài)模型,與同等參數(shù)量專用視覺模型 Qwen3-VL-A3B 相比毫不遜色。



在圖像生成方面,其長文本理解與文字渲染能力相較同類統(tǒng)一模型優(yōu)勢顯著,整體生成質(zhì)量可與專用文生圖模型 Flux-dev 相抗衡。



在音頻方面,語音識別與理解能力超越了 Gemini 3.1 Flash-Lite preview、MiMo-Audio 等同量級模型。



LongCat-Next 還破解了視覺理解與生成之間的優(yōu)化沖突。

論文實驗表明,在同等 token 預(yù)算下,理解與生成的聯(lián)合訓(xùn)練不僅沒有相互拖累,理解任務(wù)的訓(xùn)練信號反而對生成質(zhì)量有正向促進,這一結(jié)論與多數(shù)統(tǒng)一模型的實際經(jīng)驗相悖。

當(dāng)所有模態(tài)都以離散 token 的形式在同一嵌入空間中共同訓(xùn)練后,模型內(nèi)部自發(fā)涌現(xiàn)出一種跨模態(tài)的語義交融現(xiàn)象,視覺 token 與文本 token 在表示空間中形成交織分布。



  • 論文地址:https://github.com/meituan-longcat/LongCat-Next/blob/main/tech_report.pdf
  • GitHub:https://github.com/meituan-longcat/LongCat-Next
  • HuggingFace:https://huggingface.co/meituan-longcat/LongCat-Next
  • blog:https://longcat.chat/longcat-next/intro

下面,我們通過幾個具體 case 直觀感受下它的能力。

先睹為快,文圖音三模態(tài)初體驗

先來試下它的視覺理解能力

我們上傳一張愛樂之城配色的插花圖片,讓 LongCat-Next 識別其中的植物,并介紹各自特征。



提示詞:圖片中的花束包含哪幾種植物,分別有什么特征?

模型準確辨別出黃色多頭玫瑰、紫色洋桔梗、鼠尾草類香草及配葉植物,并對各自顏色、形態(tài)給出較為細致描述,還主動補充花束整體配色風(fēng)格的分析。



我們又以三座風(fēng)格各異的地標建筑為素材,考察模型對國內(nèi)城市地標的圖像識別能力。



提示詞:這三個地方分別是哪里?

LongCat-Next 準確識別出北京「望京之眼」、廣州中銀大廈及南京青奧中心三處建筑,并對每座地標建筑的背景信息有所掌握。

比如提到廣州中銀大廈的網(wǎng)絡(luò)外號「蟑螂大廈」及其獨特造型,以及南京青奧中心由扎哈?哈迪德設(shè)計等細節(jié)。



下面這道圖形推理題除了考察模型的圖像理解能力外,還涉及到抽象規(guī)律的歸納。



提示詞:Which option should be chosen for this question?

LongCat-Next 抓住其中門道,每幅圖形均由外框與內(nèi)部黑點兩個要素構(gòu)成,并通過多組數(shù)據(jù)橫向比對,得出「外框邊數(shù) - 黑點個數(shù) = 2」這一隱藏規(guī)律,最終鎖定答案 B。



再看看圖像生成能力

LongCat-Next 生成的日出時分高山湖泊,無論構(gòu)圖還是光影過渡,已接近專業(yè)風(fēng)光攝影的質(zhì)感。



prompt: A crystal clear mountain lake reflecting snow-capped peaks at sunrise. Still water, mirror-like reflection, pink and gold sky, pine trees along the shore.

下面這個 case 主要考察文字渲染能力。生成的馬克杯產(chǎn)品圖中,文字沒有變形或亂碼,整體呈現(xiàn)極簡風(fēng)格。



prompt: A white mug on a wooden table with \"LongCat-Next\" printed on it in clean font. Simple background, morning light from a window, minimalist product photography.

LongCat-Next 生成的圣托里尼,色彩表現(xiàn)是最大亮點,藍頂白墻、三角梅、落日構(gòu)成強烈且協(xié)調(diào)的撞色對比,很有氛圍感。



prompt: Santorini white buildings with blue domes overlooking the Aegean sea at sunset. Warm golden light, bougainvillea flowers, calm ocean, iconic Greek island view.

LongCat-Next 還支持任意分辨率輸出,即使是極端長寬比構(gòu)圖需求,它同樣能穩(wěn)定生成。



視覺之外,LongCat-Next 同樣將音頻納入了統(tǒng)一的離散自回歸框架。

音頻理解能力能像處理文本一樣,對聲音信號做出準確、連貫的響應(yīng),涵蓋語音內(nèi)容識別與復(fù)雜場景語義理解等。

比如用四川話問它一道經(jīng)典邏輯謎題,LongCat-Next 沒有出現(xiàn)識別偏差或語義丟失,四川話的語音信號被準確轉(zhuǎn)化為可推理的語義內(nèi)容,并順暢進入后續(xù)邏輯分析流程。

這在一定程度上說明,LongCat-Next 的音頻離散化表示具備相當(dāng)?shù)聂敯粜?,方言、口音等聲學(xué)變體并不會成為理解鏈路上的斷點。



給它一段環(huán)境錄音,它從持續(xù)、有節(jié)奏的「咔噠」聲與汽笛聲中,準確判斷出錄制地點為火車站、地鐵站或者鐵路軌道附近。

由此可見,LongCat-Next 可以綜合多個聲學(xué)線索完成場景級語義推斷。



它還能敏銳感知到話里話外的情緒。比如一段男聲音頻中,LongCat-Next 不僅聽懂了字面內(nèi)容,還從提高的音量與急促的語速中,判斷出說話者情緒激動、帶有明顯怒意。



除了「聽懂」音頻,LongCat-Next 還具備語音合成與聲音克隆能力

提供一段帶有濃重廣味的普通話作為參考音頻,讓它在保留說話人音色特征的同時,合成全新的目標內(nèi)容。

合成音頻還原了說話人的嗓音質(zhì)感,那股辨識度極高的粵腔普通話韻味也被完整保留。



切換到英文場景,同樣給出參考音頻,要求模型克隆音色并復(fù)述指定內(nèi)容。

LongCat-Next 準確捕捉到說話者的音色特征與口音習(xí)慣,輸出的合成語音在聽感上與原聲高度貼近,目標內(nèi)容的表達也清晰準確。



當(dāng)「萬物」都變成 Token

模型開始真正統(tǒng)一世界

今天的大模型,在核心建模范式上,仍以「預(yù)測下一個 token」為基礎(chǔ)。但問題在于,這個 token,長期只屬于語言。LongCat-Next 將這一理念延伸至多模態(tài)領(lǐng)域,提出了離散原生自回歸(DiNA)框架

在該框架下,圖像和音頻等連續(xù)信號被轉(zhuǎn)化為與文本共享表示空間的離散 token。在統(tǒng)一 token 表示下,大幅減少了為不同模態(tài)設(shè)計專用架構(gòu)的需求。視覺理解與生成、音頻處理等任務(wù),在核心建模上被統(tǒng)一為自回歸預(yù)測過程。



通過成對的 tokenizer,將多模態(tài)能力擴展到一種類似語言建模的原生框架之中。

如何把高維視聽信號無損變成 Token 并還原?

首先的問題是,圖像真的能變成 token 嗎?

語言天然是離散的,但視覺不是。一張圖像,是高維、連續(xù)、信息密度極高的信號,一旦壓縮成有限 token,很容易發(fā)生語義丟失(看不懂)、 細節(jié)丟失(畫不出來)。

LongCat-Next 把這個問題抽象成一個核心原則:語義完備性。也就是說,token 化之后,模型基于 token 做出的判斷,應(yīng)盡可能接近直接基于原始圖像的判斷。

為了將高維的視覺信號轉(zhuǎn)化為離散 token 且盡量減少信息損失,LongCat-Next 設(shè)計了名為dNaViT(Discrete Native Resolution Vision Transformer)的視覺 Tokenizer 。

該 Tokenizer 的核心包含三個關(guān)鍵部分:

SAE(語義對齊編碼器):模型采用經(jīng)過大規(guī)模圖文對齊訓(xùn)練的視覺編碼器作為預(yù)量化特征的基礎(chǔ)。這類編碼器不僅能夠捕獲高層語義概念,同時也保留了細粒度的視覺屬性,為后續(xù)離散建模提供語義基礎(chǔ)。

RVQ 壓縮(殘差向量量化):為了將連續(xù)特征映射到有限的離散代碼本中,模型引入多層級聯(lián)的 RVQ 機制。它通過逐層量化殘差誤差的方式不斷逼近原始表示,從而在壓縮率與信息保真之間取得更好的平衡。

dNaViT 原生分辨率:傳統(tǒng)視覺模型通常依賴固定分辨率輸入,這在縮放或裁剪過程中不可避免地帶來信息損失。dNaViT 則直接在原生分辨率下處理任意長寬比圖像,將視覺信號轉(zhuǎn)化為變長 token 序列,從而最大程度保留細節(jié)信息。



在將圖像轉(zhuǎn)換為 token 的過程中,研究人員觀察到一個內(nèi)在的信息保留現(xiàn)象:即使視覺編碼器沒有接受像素級重建訓(xùn)練,只要其結(jié)構(gòu)中包含殘差連接,就會自然保留一條低層信號傳播路徑。

換句話說,殘差,就是保住珍貴像素細節(jié)的「保鮮通道」

在這種結(jié)構(gòu)下,淺層的像素級與結(jié)構(gòu)細節(jié)可以通過恒等映射直接傳遞到深層,不會被高層語義完全覆蓋。這也意味著,在離散化之前,模型內(nèi)部已經(jīng)隱式保留了部分用于圖像重建的底層信息。



基于不同凍結(jié)視覺編碼器的視覺重建,使用輕量級像素解碼器訓(xùn)練。結(jié)果表明,殘差連接固有地保留了用于低級信號傳播的潛在路徑。

那么,在生成階段,模型如何將離散 token 重新還原為圖像?

首先,這些離散代碼嵌入會被送入一個基于視覺 Transformer(ViT)的像素解碼器中,用于恢復(fù)圖像的空間布局與對象結(jié)構(gòu)等基礎(chǔ)內(nèi)容。隨后,模型引入一個基于流匹配訓(xùn)練的圖像細化器,在結(jié)構(gòu)結(jié)果之上進一步補充紋理與高頻細節(jié),最終生成高質(zhì)量圖像。

可以理解為:第一階段負責(zé)「還原結(jié)構(gòu)」,第二階段負責(zé)「提升觀感」。



dNaViT 的 tokenizer 與 de-tokenizer 訓(xùn)練流程:通過殘差向量量化(RVQ)將圖像編碼為離散 token,并通過像素解碼器在任意分辨率下將其解碼回圖像空間。

聲音同樣被納入統(tǒng)一的離散建模體系中。模型首先利用Whisper 編碼器提取音頻的語義與副語言特征(如語氣、情感等),隨后通過下采樣與 RVQ 壓縮為離散音頻 token。

在解碼端,模型先恢復(fù)粗略的梅爾頻譜,再通過基于流匹配的模型進行細化,從而顯著提升語音合成的聲學(xué)保真度與音質(zhì)表現(xiàn)。



通過上述設(shè)計,LongCat-Next 最終證實了一個重要的觀點:信息的豐富度并不必然依賴于連續(xù)的空間

團隊在后續(xù)的評測中,用一系列的理解任務(wù)指標直接證明了這一點:即使是一張包含密集圖表、海量文字的極其復(fù)雜的圖像(例如在 OmniDocBench 等重度文檔問答任務(wù)中),在被強行壓縮成有限的離散 token 后,依然能夠精準回答關(guān)于該圖像的所有 QA、Caption 以及邏輯推理任務(wù) 。

這意味著,在跨越模態(tài)的轉(zhuǎn)換中,圖像的核心信息并沒有消亡。這堆看似有限且抽象的離散 ID,實質(zhì)上已經(jīng)成為了高維、連續(xù)視覺信號的一種極度緊湊且語義完備的等價表示 。它們不僅成功鎖住了視覺世界的骨相與細節(jié),更變成了語言模型能夠毫無障礙、直接閱讀的「通用母語」。



LongCat-Next 在復(fù)雜視覺理解任務(wù)中的表現(xiàn)。即使面對排版密集的報紙、復(fù)雜的幾何圖表與邏輯推理題,轉(zhuǎn)化為離散 token 后的模型依然能夠精準提取信息并進行深度邏輯推理,證明了該離散表示的語義完備性。

另外,對比近期的一些架構(gòu)演進,「殘差機制」在不同場景下呈現(xiàn)出截然不同的作用。

在 LongCat 的視覺編碼階段,殘差更像是一條「保留通道」。由于網(wǎng)絡(luò)相對較淺,且目標是盡可能無損地保留原始像素信息,殘差的恒等映射特性能夠有效防止底層細節(jié)被高層語義覆蓋。

而在 Kimi 團隊最近大火的 Attention Residuals 工作中,當(dāng)語言模型深度達到上百層時,傳統(tǒng)殘差累加反而會演變?yōu)椤感畔⑾♂尅?。早期層信息在傳播中逐漸衰減,同時隱狀態(tài)不斷擴張,帶來穩(wěn)定性問題。因此,該工作引入注意力機制對殘差信息進行選擇性傳遞。

LLM 的「大腦」如何處理信息?

在 DiNA 框架下,所有輸入(無論是文本、圖像還是語音)在進入模型之前,都會被轉(zhuǎn)換為統(tǒng)一格式的離散 token。隨后,它們被送入同一個解碼器架構(gòu)中,由一個模態(tài)無關(guān)的混合專家網(wǎng)絡(luò)(Modality-Agnostic MoE)統(tǒng)一處理

這意味著,傳統(tǒng)多模態(tài)模型中視覺分支、語音分支、跨模態(tài)對齊模塊等常見的結(jié)構(gòu),在這里被徹底取消。主干路徑被統(tǒng)一為:token → 共享嵌入 → 自回歸建模,但在輸入與輸出端仍保留模態(tài)相關(guān)組件。

換句話說,大模型的「多模態(tài)能力」,不再來自結(jié)構(gòu)拼接,而是來自表示統(tǒng)一

理解與生成并不沖突

傳統(tǒng)的觀點認為,理解和生成是兩個相互競爭的目標 。但在 LongCat-Next 中,它們被統(tǒng)一為同一自回歸預(yù)測過程中的兩種表現(xiàn)形式。實驗證明,將視覺理解與生成置于統(tǒng)一的自回歸目標下進行聯(lián)合訓(xùn)練,兩者并未產(chǎn)生容量沖突

在同等 token 數(shù)量的訓(xùn)練下,統(tǒng)一模型(Unified model)的損失與純理解模型(Pure-Und.)的差距微乎其微(僅相差 0.006) ,同時其損失甚至比純生成模型(Pure-Gen.)還要低 0.02 。



這意味著,生成任務(wù)不會削弱理解能力,反而理解任務(wù)的引入會進一步提升生成表現(xiàn)。

為了保證生成語音的邏輯連貫性,模型借鑒了內(nèi)部文本引導(dǎo)的思想,將文本作為語音生成過程的一部分進行顯式建模。

串行生成:模型先生成引導(dǎo)性的文本片段,再生成對應(yīng)音頻片段。這一方式在每一步只需預(yù)測單一模態(tài) token,有效避免模態(tài)間干擾,從而保證語義準確性。

并行生成:模型在每一步同時生成文本與音頻 token,并通過延遲首個音頻 token 的生成步數(shù),實現(xiàn)與文本的對齊。該策略顯著降低響應(yīng)延遲,更適用于實時對話場景。

為了統(tǒng)一這兩種策略,團隊提出了一種基于隨機延遲的訓(xùn)練范式:在訓(xùn)練過程中隨機采樣文本與音頻的對齊延遲,使模型學(xué)習(xí)更魯棒的跨模態(tài)對齊能力。

實驗顯示,在該訓(xùn)練方式下,并行生成在效率與語義準確度上均可達到與串行生成相當(dāng)?shù)乃健?/p>



兩種具有內(nèi)部語言引導(dǎo)的語音生成策略。 用戶的輸入音頻被視為純音頻模態(tài),而由 LongCat-Next(或助手)生成的輸出則被視為文本引導(dǎo)的音頻模態(tài)。為了指示模態(tài)轉(zhuǎn)換并促進分段對齊,團隊引入了三個特殊標記:AS(Audio Start,音頻開始)、AE(Audio End,音頻結(jié)束) 和 TE(Text End,文本結(jié)束),分別表示音頻片段的起始和結(jié)束,以及文本片段的結(jié)束。

基礎(chǔ)設(shè)施保障:V-Half 流水線調(diào)度

在多模態(tài)模型中,計算負載本質(zhì)上是異構(gòu)的 。圖、音、文在 Embedding 層和特定模態(tài)損失模塊(如深度 Transformer)的計算耗時存在顯著差異,且會隨每條樣本中模態(tài) token 分布的不同而動態(tài)波動 。傳統(tǒng)的線性流水線并行會導(dǎo)致嚴重的級間負載不均、高昂的點對點通信開銷以及大量的算力氣泡 。

為解決這一系統(tǒng)瓶頸,團隊采用了基于V-Half的流水線調(diào)度策略 。該策略通過「V 型調(diào)度」,將計算流水線的第一個階段(Embedding 層)和最后一個階段(模態(tài)特定的損失模塊)「折疊」并共置于同一個物理設(shè)備上 。



這種物理層面的共置設(shè)計,不僅通過吸收動態(tài)計算開銷有效消除了流水線氣泡、實現(xiàn)了近乎完美的負載均衡 ,還使得這兩端模塊之間的前向激活和反向梯度傳遞可以通過零拷貝的設(shè)備內(nèi)內(nèi)存訪問完成,顯著減少了跨階段通信開銷。

實驗細節(jié)與未來工作

在視覺生成數(shù)據(jù)上,為避免模型陷入同質(zhì)化審美(即過度偏向高頻的「AI 風(fēng)格」),團隊引入了基于聚類的重平衡策略。通過對高密度集群進行去重,并提高稀疏長尾概念(如罕見動植物、專業(yè)儀器)的采樣權(quán)重,從數(shù)據(jù)源頭上保障了生成內(nèi)容的多樣性。



左圖: 數(shù)據(jù)整理與訓(xùn)練流程包含三個階段:(I)預(yù)訓(xùn)練:通過過濾和重新描述實現(xiàn)基本對齊;(II)中期訓(xùn)練:通過語義聚類和重平衡解決數(shù)據(jù)不平衡問題;(III)監(jiān)督微調(diào):基于高質(zhì)量、遵循指令的數(shù)據(jù),提升美學(xué)質(zhì)量和文本渲染效果。右圖: 圖像來源的分布情況。

將多模態(tài)數(shù)據(jù)離散化為 token 的另一項技術(shù)紅利,體現(xiàn)在強化學(xué)習(xí)階段。離散視覺潛在空間天然可以作為動作空間,使模型能夠直接套用語言模型成熟的 RL 算法(如 GRPO)來提升畫圖和理解能力,避免了連續(xù)空間中復(fù)雜的采樣與映射過程。



在針對圖像理解進行 RL 訓(xùn)練時,團隊遭遇了嚴重的「熵爆炸」問題。當(dāng)極少數(shù) token 存在訓(xùn)練 - 推理概率失配時,微小的亂碼噪聲會在長序列生成中累積放大,導(dǎo)致輸出崩潰。團隊最終通過設(shè)計基于熵和概率差的「序列級過濾機制」,在梯度更新前精準丟棄包含致命錯亂的樣本序列,成功穩(wěn)定了 RL 的訓(xùn)練過程。

整體來看,LongCat-Next 的后續(xù)工作,仍將圍繞兩個核心問題展開:一是如何在更高壓縮率下維持跨模態(tài)語義完備性;二是如何在統(tǒng)一 token 空間中進一步提升長序列與復(fù)雜任務(wù)下的穩(wěn)定性與可控性。

結(jié)語

論文在最后探討了一個非常有趣的觀點:「柏拉圖表征假說」。在柏拉圖的哲學(xué)理念中,現(xiàn)實世界的萬事萬物,都只是完美「理念」的影子。映射到深度學(xué)習(xí)中,文本、圖像和聲音,本質(zhì)上也是對同一個客觀現(xiàn)實的不同表達途徑。

在傳統(tǒng)的拼接式模型中,圖、音、文往往各自為陣,在特征空間里形成割裂。但當(dāng)它們被置于 DiNA 這種完全原生的離散框架下時,實驗觀測到了一個美妙的現(xiàn)象:視覺和文本 token 的特征分布自然地交織在了一起。

它們不再是需要被強行對齊的異類,而是變成了表達同一個底層概念的「世界語言」。無論是屏幕上的像素,還是麥克風(fēng)里的聲波,最終都在模型的高維語義空間中,化為了同一種思維的漣漪。

客觀地看,目前的探索仍是一個起點。正如團隊在未來工作中所指出的,當(dāng)前的評估主要通過圖像到文本(理解)和文本到圖像(生成)等經(jīng)典任務(wù),成功驗證了這種離散原生架構(gòu)的可行性與語義完整性。然而,距離真正意義上的通用多模態(tài)智能仍有距離。

團隊指出,未來的原生多模態(tài)系統(tǒng)絕對不應(yīng)局限于這些傳統(tǒng)的單一方向 。理所當(dāng)然的下一步,是必須走向更復(fù)雜的「任意到任意」的交織推理 。這意味著未來的輸入和輸出將是文本、視覺和音頻的任意組合 ,甚至涵蓋長上下文的多模態(tài)交互、多輪視覺對話,以及不同模態(tài)之間動態(tài)相互制約的組合生成 。只有實現(xiàn)這種靈活、統(tǒng)一的交互,模型才能真正從「特定任務(wù)的專家」進化為「通用多模態(tài)智能」 。

文中視頻鏈接:https://mp.weixin.qq.com/s/IzzNLPI9L2tSRvOXniOJ2Q

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
A股:剛剛,六部門聯(lián)合發(fā)聲!兩大利好落地,明天,要大反轉(zhuǎn)了?

A股:剛剛,六部門聯(lián)合發(fā)聲!兩大利好落地,明天,要大反轉(zhuǎn)了?

云鵬敘事
2026-04-07 00:00:07
CBA焦點戰(zhàn)今夜打響!CCTV5直播!遼寧爭前8,吉林預(yù)送36連敗

CBA焦點戰(zhàn)今夜打響!CCTV5直播!遼寧爭前8,吉林預(yù)送36連敗

老吳說體育
2026-04-07 11:11:34
鄭麗文登機前,侯友宜再次警告!吳伯雄說對了 藍營內(nèi)部有人不死心

鄭麗文登機前,侯友宜再次警告!吳伯雄說對了 藍營內(nèi)部有人不死心

王姐懶人家常菜
2026-04-07 07:44:55
心梗與散步脫不開關(guān)系?醫(yī)生建議:55歲以后,散步時多注意這3點

心梗與散步脫不開關(guān)系?醫(yī)生建議:55歲以后,散步時多注意這3點

白話電影院
2026-04-06 19:42:47
49 歲女子甲狀腺癌晚期,丈夫泣訴:一周至少 6 次,怎么勸都沒用

49 歲女子甲狀腺癌晚期,丈夫泣訴:一周至少 6 次,怎么勸都沒用

岐黃傳人孫大夫
2026-02-25 18:05:57
俄專家:中國公民可以優(yōu)惠條件辦理俄羅斯長期居留許可

俄專家:中國公民可以優(yōu)惠條件辦理俄羅斯長期居留許可

俄羅斯衛(wèi)星通訊社
2026-04-06 15:06:39
曝火箭計劃與后衛(wèi)JD-戴維森簽下一份標準合同

曝火箭計劃與后衛(wèi)JD-戴維森簽下一份標準合同

北青網(wǎng)-北京青年報
2026-04-07 19:42:04
嗜血豬周期,前所未有

嗜血豬周期,前所未有

巨潮WAVE
2026-04-07 15:01:33
特朗普威脅伊朗:“整個文明將消亡”

特朗普威脅伊朗:“整個文明將消亡”

財聞
2026-04-07 20:24:10
1.48億糖友的期盼,終于等來“不用打針”的強效療法

1.48億糖友的期盼,終于等來“不用打針”的強效療法

PSM藥盾公益
2026-04-06 23:19:36
伊朗加茲溫省部隊攔截一枚“戰(zhàn)斧”導(dǎo)彈

伊朗加茲溫省部隊攔截一枚“戰(zhàn)斧”導(dǎo)彈

國際在線
2026-04-07 20:49:16
高云翔與發(fā)小吃天津美食,44歲滿頭白發(fā),吃完主動擦桌子收拾碗筷

高云翔與發(fā)小吃天津美食,44歲滿頭白發(fā),吃完主動擦桌子收拾碗筷

陳意小可愛
2026-04-07 18:41:38
墮落的“清純女星”酒井法子,這張腿間蝴蝶背后,隱藏著的故事

墮落的“清純女星”酒井法子,這張腿間蝴蝶背后,隱藏著的故事

七阿姨愛八卦
2026-03-29 10:12:33
曝全紅嬋遭霸凌:282人微信群長期辱罵她 多位隊友在群內(nèi)但未制止

曝全紅嬋遭霸凌:282人微信群長期辱罵她 多位隊友在群內(nèi)但未制止

風(fēng)過鄉(xiāng)
2026-04-07 06:13:04
孫穎莎三連冠的背景:蒯曼師徒看臺上的落寞,藏著國乒的另一面

孫穎莎三連冠的背景:蒯曼師徒看臺上的落寞,藏著國乒的另一面

太陽來
2026-04-07 05:52:51
以軍警告伊朗民眾不要乘坐火車或靠近鐵路

以軍警告伊朗民眾不要乘坐火車或靠近鐵路

新京報
2026-04-07 14:04:07
開拓者評估教練市場 楊瀚森有望擺脫斯普利特壓制

開拓者評估教練市場 楊瀚森有望擺脫斯普利特壓制

體壇周報
2026-04-07 19:09:15
歷史很有意思:元朝來的人,明清沒走,民國沒走,一直住到現(xiàn)在!

歷史很有意思:元朝來的人,明清沒走,民國沒走,一直住到現(xiàn)在!

小豫講故事
2026-04-07 06:00:04
一覺醒來,中國斯諾克4勝2負!白雨露開門紅,高陽爆冷10冠王!

一覺醒來,中國斯諾克4勝2負!白雨露開門紅,高陽爆冷10冠王!

劉姚堯的文字城堡
2026-04-07 06:53:56
陳光標稱已向嫣然醫(yī)院捐贈1000萬元,張雪評論“標哥真男人”,二手車商:車沒收成,但心里很暖

陳光標稱已向嫣然醫(yī)院捐贈1000萬元,張雪評論“標哥真男人”,二手車商:車沒收成,但心里很暖

極目新聞
2026-04-06 21:04:20
2026-04-07 21:24:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12701文章數(shù) 142616關(guān)注度
往期回顧 全部

科技要聞

滿嘴謊言!OpenAI奧特曼黑料大起底

頭條要聞

美軍拯救飛行員差一點失敗 從40英里外用攝像頭對準他

頭條要聞

美軍拯救飛行員差一點失敗 從40英里外用攝像頭對準他

體育要聞

官宣簽約“AI球員”,這支球隊被罵慘了...

娛樂要聞

女首富陳麗華離世 被曝生前已分好遺產(chǎn)

財經(jīng)要聞

10萬億財政轉(zhuǎn)移支付,被誰拿走了?

汽車要聞

不止是大 極狐首款MPV問道V9靜態(tài)體驗

態(tài)度原創(chuàng)

教育
藝術(shù)
房產(chǎn)
手機
公開課

教育要聞

教育部:學(xué)位論文抽檢,改革!

藝術(shù)要聞

美麗風(fēng)光看不盡

房產(chǎn)要聞

重磅!三亞擬出安居房新政!

手機要聞

傳聞蘋果闊折疊命名iPhone Ultra,曝國內(nèi)同品類新機也考慮跟進

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版