国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

西湖大學(xué)張馳團(tuán)隊:不重訓(xùn),也能讓視頻生成更長更穩(wěn)丨CVPR 2026

0
分享至


FreeLOC:一種面向長視頻生成的分層自適應(yīng)推理校正方法。

作者丨鄭佳美

編輯丨岑 峰

過去一段時間,AI 視頻最讓人驚艷的,往往都是前幾秒。人物狀態(tài)自然,光影氛圍到位,動作也足夠流暢,很容易讓人產(chǎn)生一種感覺,視頻生成已經(jīng)離真正可用不遠(yuǎn)了。

但行業(yè)越往前走,問題也越清楚,真正難的從來不是做出一小段漂亮畫面,而是能不能把這種質(zhì)量穩(wěn)定地延續(xù)下去。一旦視頻時長被拉長,很多模型就會開始慢慢失穩(wěn),人物、場景和動作表面上還在延續(xù),內(nèi)部卻已經(jīng)出現(xiàn)細(xì)節(jié)漂移和時序松動。

這也是為什么,今天 AI 視頻行業(yè)真正卡住的地方,已經(jīng)不只是能不能生成片段,而是能不能生成連續(xù)、穩(wěn)定、可以承載完整情境的內(nèi)容。

比如一段廚房視頻里,鏡頭從備菜推進(jìn)到下鍋,再切到擺盤,觀眾期待看到的是同一個空間、同一套器具和同一份食材被自然地串聯(lián)起來。再比如一段城市通勤視頻里,人物從地鐵口走到街邊店鋪,鏡頭可以變化,但人物狀態(tài)、環(huán)境關(guān)系和動作邏輯不能越走越散。

只有解決這種長時間穩(wěn)定性問題,AI 視頻才真正有機(jī)會從展示走向創(chuàng)作和生產(chǎn)。也正是在這樣的背景下,西湖大學(xué)的張馳團(tuán)隊提出了《Free-Lunch Long Video Generation via Layer-Adaptive O.O.D Correction》。

這項研究關(guān)注的,不是怎樣把某一幀做得更亮眼,而是為什么模型在短視頻里表現(xiàn)很好,一旦進(jìn)入長視頻生成,質(zhì)量就會越來越難維持。也正因為它抓住了這個行業(yè)里越來越核心的問題,所以這項研究不只是一次常規(guī)優(yōu)化,而更像是在回答,AI 視頻從短片段走向長內(nèi)容時,究竟卡在了哪里。


論文地址:https://arxiv.org/pdf/2603.25209

01


更長的視頻,更明顯的優(yōu)勢

在 Wan2.1-T2V-1.3B 上,研究人員把視頻長度擴(kuò)展到 2 倍和 4 倍之后,發(fā)現(xiàn) FreeLOC 的優(yōu)勢非常穩(wěn)定,而且視頻越長,這種優(yōu)勢越明顯。

先看 2 倍長度,也就是 161 幀的結(jié)果。主體一致性達(dá)到 98.06,背景一致性達(dá)到 97.49,運動平滑達(dá)到 98.98,說明在人物、場景和動作連續(xù)性上,它都已經(jīng)處在最好或接近最好的水平。

更突出的部分在畫質(zhì)相關(guān)指標(biāo)上。圖像質(zhì)量達(dá)到 68.31,明顯高于 Direct 的 60.34,也高于 Sliding Window 的 64.64 和 FreeNoise 的 67.19。美學(xué)質(zhì)量達(dá)到 62.33,而其他方法大多只在 52 到 56 之間,所以這一項的領(lǐng)先尤其明顯。

動態(tài)程度也達(dá)到 39.41,已經(jīng)接近最佳。換句話說,在 2 倍長度下,F(xiàn)reeLOC 不是只在某一個指標(biāo)上占優(yōu),而是在穩(wěn)定性、清晰度和整體觀感上都表現(xiàn)更強(qiáng)。

到了 4 倍長度,也就是 321 幀,長視頻生成的難度會明顯上升,因為模型更容易出現(xiàn)內(nèi)容漂移、畫面變糊或者動作失真。但研究結(jié)果表明,F(xiàn)reeLOC 在這種更苛刻的設(shè)定下仍然能保持很強(qiáng)的表現(xiàn)。

主體一致性達(dá)到 98.44,仍然幾乎是最高水平。圖像質(zhì)量達(dá)到 67.44,而 Direct 已經(jīng)掉到 59.21,差距達(dá)到 8.2。美學(xué)質(zhì)量達(dá)到 61.21,Direct 只有 49.43,差距進(jìn)一步擴(kuò)大到 11.8。動態(tài)程度達(dá)到 36.27,而 Direct 只有 4.32,差不多已經(jīng)是數(shù)量級上的差別。

這個結(jié)果說明,隨著視頻長度繼續(xù)增加,很多方法會越來越難維持質(zhì)量,但 FreeLOC 仍然能把畫面質(zhì)量和動態(tài)表現(xiàn)保持在較高水平,所以它的優(yōu)勢不是偶然,而是在高難度長視頻場景里依然成立。


這種提升并不只出現(xiàn)在一個模型上。研究團(tuán)隊又在 HunyuanVideo 上做了同樣的測試,結(jié)果趨勢依然一致。2 倍長度,也就是 253 幀時,圖像質(zhì)量達(dá)到 68.92,美學(xué)質(zhì)量達(dá)到 62.38,都是最高,主體一致性也有 97.92,優(yōu)于大多數(shù)方法。

到了 4 倍長度,也就是 509 幀,圖像質(zhì)量仍有 67.92,美學(xué)質(zhì)量仍有 61.09,動態(tài)程度達(dá)到 39.28,也接近最佳。也就是說,F(xiàn)reeLOC 的效果并不是只在 Wan2.1-T2V-1.3B 上成立,而是在另一套視頻生成模型上也能復(fù)現(xiàn)出相同趨勢,這就說明研究提出的方法具有比較明顯的跨模型通用性。

為了進(jìn)一步說明這種提升到底來自哪里,研究團(tuán)隊還做了消融實驗,把方法拆開來看。只使用 TSA 時,圖像質(zhì)量是 65.87,美學(xué)質(zhì)量是 57.05,說明單獨處理長上下文問題已經(jīng)能帶來可見提升。

只使用 VRPR 時,圖像質(zhì)量是 61.88,美學(xué)質(zhì)量是 54.13,說明單獨修正位置問題也有效,但作用還不夠強(qiáng)。假如把 TSA 和 VRPR 一起加上去,卻對所有層統(tǒng)一處理,圖像質(zhì)量是 65.19,美學(xué)質(zhì)量是 56.34,雖然比只用一個模塊更好,但仍然不是最佳結(jié)果。

更關(guān)鍵的是,研究人員還測試了隨機(jī)分配到不同層的做法,結(jié)果圖像質(zhì)量反而掉到 63.90,這說明模塊本身并不是隨便放在哪里都行,真正重要的是放在哪些層上。按層選擇之后,也就是 FreeLOC 的做法,圖像質(zhì)量達(dá)到 67.44,美學(xué)質(zhì)量達(dá)到 61.21,都是最高。

這一部分實驗最想說明的是,性能提升不只是因為多加了兩個模塊,而是因為研究人員發(fā)現(xiàn)不同層對不同問題的敏感程度并不一樣,所以必須做分層處理,而這正是 FreeLOC 最核心的創(chuàng)新點之一。


研究人員還進(jìn)一步比較了不同的位置處理方式和不同的注意力機(jī)制。在位置處理上,他們比較了 Clipping、Grouping 和 VRPR,最后發(fā)現(xiàn) VRPR 的效果最好,圖像質(zhì)量達(dá)到 68.84,美學(xué)質(zhì)量達(dá)到 61.21,都明顯領(lǐng)先。這說明多粒度的位置重編碼確實比簡單截斷或者簡單分組更有效。

在注意力機(jī)制上,研究又比較了 Sliding Window、Selected Frame Attention 和 TSA,結(jié)果 TSA 依然最好,圖像質(zhì)量達(dá)到 68.84,美學(xué)質(zhì)量達(dá)到 61.21。這意味著,單純用滑動窗口雖然能縮小注意力范圍,但會損失一部分長程信息,而 TSA 能在控制上下文長度的同時,盡量保留長距離時序關(guān)聯(lián),所以整體表現(xiàn)更強(qiáng)。


把這些實驗合在一起看,研究團(tuán)隊實際上是在證明一件事,F(xiàn)reeLOC 的優(yōu)勢不是只體現(xiàn)在某一個局部技巧上,而是來自一整套更合理的設(shè)計,包括位置重編碼、注意力控制,以及最關(guān)鍵的分層使用策略。

整體來看,這組實驗傳遞出的結(jié)論非常清楚。無論是在 Wan2.1-T2V-1.3B 還是 HunyuanVideo 上,無論是在 2 倍長度還是 4 倍長度設(shè)置下,F(xiàn)reeLOC 都能同時提升視頻的穩(wěn)定性、清晰度、美感和動態(tài)表現(xiàn),而且越到更長、更難的生成場景,這種優(yōu)勢越明顯。


02


從設(shè)置到機(jī)制,一步步驗證

在實驗設(shè)置上,研究團(tuán)隊選用了兩個公開可用的視頻生成模型,分別是 Wan2.1-T2V-1.3B 和 HunyuanVideo,用來驗證 FreeLOC 是否具有跨模型的適用性。

視頻生成時,研究人員把輸出分辨率統(tǒng)一設(shè)為 480p,也就是 832 × 480,并且重點測試了把視頻長度擴(kuò)展到 2 倍和 4 倍之后的生成效果。這樣做的目的很明確,就是看模型在視頻明顯變長之后,是否還能維持原本的畫面質(zhì)量和時序穩(wěn)定性。

為了證明 FreeLOC 的效果不是偶然,研究還設(shè)置了多組對比方法,包括 Direct Sampling,也就是直接生成,Sliding Window,也就是滑動窗口,以及 FreeNoise、FreeLong、RIFLEx 和 FreeLOC。

這樣的對比覆蓋了目前比較常見的長視頻生成思路,有的是最直接的基線方法,有的是通過局部窗口維持連續(xù)性,也有的是已有的訓(xùn)練免費方法,所以能夠比較全面地看出 FreeLOC 相比其他方案到底強(qiáng)在哪里。


在評價方式上,研究人員采用的是 VBench 標(biāo)準(zhǔn),并且把指標(biāo)分成了一致性和質(zhì)量兩大類。一致性方面主要看 Subject Consistency,也就是人物在長視頻里會不會變形或漂移,Background Consistency,也就是背景是否穩(wěn)定,以及 Motion Smoothness,也就是動作和運動過程是否連續(xù)自然。

質(zhì)量方面主要看 Imaging Quality,也就是畫面清晰度,Aesthetic Quality,也就是整體視覺美感,以及 Dynamic Degree,也就是視頻的動態(tài)表現(xiàn)強(qiáng)不強(qiáng)。這樣一來,研究考察的就不只是單純的清晰度,而是把人物穩(wěn)定、背景穩(wěn)定、動作連續(xù)、畫面質(zhì)量和觀感都納入了評估范圍。


除了常規(guī)的對比實驗,研究團(tuán)隊還做了一個很關(guān)鍵的探測實驗,也就是逐層分析 Transformer。具體來說,研究人員會對每一層施加擾動,然后觀察兩個結(jié)果,一是視覺質(zhì)量到底下降了多少,二是 attention 的變化到底有多大。

通過這種方法,他們發(fā)現(xiàn)不同層對問題的敏感性并不一樣,有的層更容易受到位置變化的影響,有的層更容易受到長上下文擴(kuò)展的影響。這個發(fā)現(xiàn)非常重要,因為它直接支持了 FreeLOC 后面的分層處理思路,也就是不是所有層都一視同仁,而是要針對不同層采用不同修正方式。

研究還專門驗證了兩類核心的 O.O.D 問題。第一類是位置 O.O.D,做法是改變幀之間的相對位置關(guān)系,然后觀察生成質(zhì)量會不會下降。第二類是長度 O.O.D,做法是直接增加視頻長度,再計算 attention entropy,也就是注意力分散程度。

實驗結(jié)果表明,視頻長度一旦增加,attention 就會變得更分散,而注意力越分散,生成質(zhì)量往往越差。也正是基于這兩類問題的驗證,研究團(tuán)隊才進(jìn)一步提出了后面的 VRPR、TSA 和分層適配策略。整體來看,這一部分實驗經(jīng)過的意義就在于,研究并不是只做結(jié)果對比,而是先把問題來源拆清楚,再針對性地設(shè)計解決辦法。


03


從「能生成」走向「能使用」

這項研究的意義,不只是把長視頻生成的結(jié)果做得更好,而是把問題背后的原因說清楚了。研究團(tuán)隊指出,長視頻之所以容易出現(xiàn)畫面變糊、動作不連貫、人物不穩(wěn)定這些問題,核心來自兩類 O.O.D,也就是位置 O.O.D 和上下文 O.O.D。

這個判斷很重要,因為它說明過去很多方法更像是在不斷試技巧、調(diào)參數(shù),而這項研究開始把問題推進(jìn)到機(jī)制解釋的層面。也就是說,研究人員不僅提出了一個更有效的方案,還解釋了為什么以前的方法容易失效,為什么視頻一變長,模型就會更容易出問題。

這項研究還有一個很實際的意義,就是證明了訓(xùn)練并不是唯一辦法。以前一說到長視頻生成,很多人會默認(rèn)要重新訓(xùn)練模型,或者至少做一次很重的額外訓(xùn)練,因為短視頻模型通常很難直接應(yīng)對更長的時序范圍。

研究團(tuán)隊這次證明,只在推理階段做更精細(xì)的修正,也能明顯改善生成效果。這一點很關(guān)鍵,因為它意味著算力成本會更低,現(xiàn)有模型也更容易直接使用,對技術(shù)落地和實際部署都更有幫助。

另外,研究人員還重新揭示了 Transformer 不同層的作用差異。他們發(fā)現(xiàn),不同層并不是在做同一件事,有些層更容易受到位置問題影響,有些層更容易受到長上下文問題影響。

所以真正有效的方法,不是一刀切地改所有層,而是先找出問題主要集中在哪些層,再做針對性修復(fù)。這個認(rèn)識很有價值,因為它不只適用于視頻生成,對長上下文的 LLM、圖像生成模型的推理優(yōu)化,其實也都有啟發(fā)。

換句話說,這項研究提出的不只是一個技巧,更是一種更通用的思路,也就是先識別問題,再定位到層,最后做局部修復(fù)。

如果從普通人的角度來看,這項研究的影響其實也很直接。未來大家用 AI 生成稍微長一點的視頻時,人物突然變臉、衣服亂變、背景亂跳、動作接不上的情況,有望明顯減少。

對普通用戶來說,這意味著做故事短片、教學(xué)視頻、產(chǎn)品展示視頻時,成片會更穩(wěn)定,也更接近真正能用的內(nèi)容。對內(nèi)容創(chuàng)作者來說,這意味著返工會更少,制作成本會更低,小團(tuán)隊和個人創(chuàng)作者也更有機(jī)會用現(xiàn)成模型做出更長、更連貫的視頻內(nèi)容。

所以這項研究真正推動的,不只是技術(shù)指標(biāo)的提升,而是讓 AI 長視頻生成離日常可用、商業(yè)可用又近了一步。

04


FreeLOC 的創(chuàng)建者

論文一作田佳豪,目前是西湖大學(xué) AGI Lab 的科研助理,師從張馳教授。主要從事計算機(jī)視覺方面的研究。他當(dāng)前的研究重點集中在擴(kuò)散生成模型,視頻生成,世界模型等方向。

就學(xué)術(shù)成果來看,他已發(fā)表或參與多項工作,包括以第一作者發(fā)表在 CVPR 2026 的FreeLOC,以及投遞于 ECCV 2026 的 HeadForcing,此外還發(fā)表了 DCCM,Loss-Guided Diffusion For General Controllable Generation 等工作,整體研究路徑體現(xiàn)出從圖像級擴(kuò)散模型理論、視頻時序建模到自回歸長視頻生成與交互式視頻合成的持續(xù)推進(jìn)。


通訊作者張馳,西湖大學(xué)助理教授、獨立PI,同時擔(dān)任 AGI Lab負(fù)責(zé)人,在生成式人工智能和多模態(tài)智能方向開展研究工作。在

此之前,他曾在騰訊擔(dān)任研究科學(xué)家,并于新加坡南洋理工大學(xué)獲得博士學(xué)位,師從林國盛教授,同時與沈春華等學(xué)者保持長期合作關(guān)系。在學(xué)術(shù)影響力方面,他連續(xù)入選斯坦福大學(xué)發(fā)布的全球前 2% 科學(xué)家榜單,并擔(dān)任多個頂級會議和期刊的重要學(xué)術(shù)服務(wù)角色,包括 ICML、ICLR、CVPR 等會議的 Area Chair,以及 IEEE T-CSVT 的副編輯。

在學(xué)術(shù)成果與研究產(chǎn)出方面,他長期深耕生成式人工智能領(lǐng)域,研究方向涵蓋擴(kuò)散模型、多模態(tài)生成建模以及智能體系統(tǒng),近年來帶領(lǐng)團(tuán)隊在 CVPR、ICCV、ICLR、NeurIPS 等頂級會議上持續(xù)發(fā)表成果,例如 Ultra3D、FlowDirector、WorldForge、MeshAnything、Metric3D、StableLLaVA 等代表性工作。

這些研究從圖像生成、視頻生成延伸到 3D/4D 場景建模以及多模態(tài)智能體,形成了一條從視覺理解到世界建模的系統(tǒng)性研究路線。

從整體研究特點來看,張馳的工作強(qiáng)調(diào)生成模型的可控性、多模態(tài)融合能力以及向真實世界建模能力的拓展,既關(guān)注模型基礎(chǔ)理論,也注重實際系統(tǒng)構(gòu)建與應(yīng)用落地。例如在視頻生成與3D建模方向,他推動從單純生成內(nèi)容向可控相機(jī)運動和空間理解發(fā)展,在智能體方向,他探索多模態(tài)大模型在真實交互環(huán)境中的應(yīng)用。

這種研究路徑體現(xiàn)出從傳統(tǒng)計算機(jī)視覺向通用人工智能過渡的趨勢,也使其工作處于當(dāng)前人工智能領(lǐng)域較為前沿的位置。


參考鏈接:https://icoz69.github.io/


未經(jīng)「AI科技評論」授權(quán),嚴(yán)禁以任何方式在網(wǎng)頁、論壇、社區(qū)進(jìn)行轉(zhuǎn)載!

公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標(biāo)注來源并插入本公眾號名片。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
不玩游戲、偶像包袱重、前胸貼白鹿后背,《奔跑吧》他干嘛來了?

不玩游戲、偶像包袱重、前胸貼白鹿后背,《奔跑吧》他干嘛來了?

洲洲影視娛評
2026-04-25 14:24:44
兩位知名港星聲援馬蹄露!廣東雨神直播拉票,張敬軒必敗無疑

兩位知名港星聲援馬蹄露!廣東雨神直播拉票,張敬軒必敗無疑

涵豆說娛
2026-04-25 12:07:14
張雪峰多位愛將離職,真相很殘忍

張雪峰多位愛將離職,真相很殘忍

新浪財經(jīng)
2026-04-24 19:11:55
澳洲折扣超市取代Coles, Woolies! 大批澳人瘋狂掃貨, 最高可省80%!

澳洲折扣超市取代Coles, Woolies! 大批澳人瘋狂掃貨, 最高可省80%!

澳微Daily
2026-04-25 15:42:43
辛納談阿卡退出法網(wǎng):安心養(yǎng)傷是明智之舉,期待溫網(wǎng)見到他

辛納談阿卡退出法網(wǎng):安心養(yǎng)傷是明智之舉,期待溫網(wǎng)見到他

懂球帝
2026-04-25 16:55:04
60分12板8助!大號文班真強(qiáng)啊!探花50+11+11一劍封喉1

60分12板8助!大號文班真強(qiáng)啊!探花50+11+11一劍封喉1

貴圈真亂
2026-04-25 13:54:25
燃?xì)夤旧祥T安檢,根本不是查漏氣!真正目的其實是這3個

燃?xì)夤旧祥T安檢,根本不是查漏氣!真正目的其實是這3個

匹夫來搞笑
2026-04-20 13:24:51
眼紅。」べY到賬19380.52元,自稱“長沙教培牛馬”發(fā)帖刷爆網(wǎng)絡(luò)

眼紅啊!工資到賬19380.52元,自稱“長沙教培牛馬”發(fā)帖刷爆網(wǎng)絡(luò)

火山詩話
2026-04-24 07:35:54
全球最疲憊總統(tǒng)宣布退場

全球最疲憊總統(tǒng)宣布退場

劉瀾昌
2026-04-25 08:43:52
59歲鞏俐身材引熱議,外套都快撐不住豐腴身材了,卻被夸少女體態(tài)

59歲鞏俐身材引熱議,外套都快撐不住豐腴身材了,卻被夸少女體態(tài)

一盅情懷
2026-03-16 16:52:57
膽大包天!伊朗33艘快艇閃電突襲:美軍來不及出動,眼睜睜吃敗仗

膽大包天!伊朗33艘快艇閃電突襲:美軍來不及出動,眼睜睜吃敗仗

伴史緣
2026-04-25 14:02:08
昔日和王鈺棟齊名并稱國少雙星 如今卻淪落中甲碌碌無為 5輪0進(jìn)球

昔日和王鈺棟齊名并稱國少雙星 如今卻淪落中甲碌碌無為 5輪0進(jìn)球

零度眼看球
2026-04-25 08:54:32
我敢說,大部分會跟我一樣,選擇黑色衣服那個女孩!

我敢說,大部分會跟我一樣,選擇黑色衣服那個女孩!

草莓解說體育
2026-04-12 17:05:01
巔峰之夜!亞冠決賽今晚打響:吉達(dá)vs町田 馬寧擔(dān)任第四官員

巔峰之夜!亞冠決賽今晚打響:吉達(dá)vs町田 馬寧擔(dān)任第四官員

新英體育
2026-04-25 09:09:10
近7場1勝 皇馬球迷貼面怒罵球員:不知羞恥 姆巴佩用帽遮臉+逃離

近7場1勝 皇馬球迷貼面怒罵球員:不知羞恥 姆巴佩用帽遮臉+逃離

我愛英超
2026-04-25 07:46:50
印度終于搶到化肥,卻被狠宰一刀!算清這筆賬,為何中國不慌?

印度終于搶到化肥,卻被狠宰一刀!算清這筆賬,為何中國不慌?

丁丁鯉史紀(jì)
2026-04-25 11:45:39
看完伊朗,再看中國,盧卡申科做出一個神預(yù)測,特朗普怕就是這個

看完伊朗,再看中國,盧卡申科做出一個神預(yù)測,特朗普怕就是這個

落梅如雪亂飛
2026-04-22 13:31:47
海昏侯簡牘的價值,為什么遠(yuǎn)高于他墓中的巨量黃金

海昏侯簡牘的價值,為什么遠(yuǎn)高于他墓中的巨量黃金

澎湃新聞
2026-04-21 08:08:40
徹底焊死了!

徹底焊死了!

安安說
2026-04-25 11:52:50
C羅被媒體放出來的那份食譜太反科學(xué)!被認(rèn)為是在搞營銷!

C羅被媒體放出來的那份食譜太反科學(xué)!被認(rèn)為是在搞營銷!

歷史第一人梅西
2026-04-25 01:36:38
2026-04-25 18:35:00
AI科技評論 incentive-icons
AI科技評論
點評學(xué)術(shù),服務(wù)AI
7222文章數(shù) 20749關(guān)注度
往期回顧 全部

科技要聞

DeepSeek V4發(fā)布!黃仁勛預(yù)言的"災(zāi)難"降臨

頭條要聞

伊朗最高領(lǐng)袖一條腿截肢面部嚴(yán)重?zé)齻?通信方式披露

頭條要聞

伊朗最高領(lǐng)袖一條腿截肢面部嚴(yán)重?zé)齻?通信方式披露

體育要聞

火箭0-3觸發(fā)百分百出局定律:本季加時賽9戰(zhàn)8敗

娛樂要聞

鄧超最大的幸運,就是遇見孫儷

財經(jīng)要聞

90%訂單消失,中東旺季沒了

汽車要聞

2026款樂道L90亮相北京車展 樂道L80正式官宣

態(tài)度原創(chuàng)

本地
數(shù)碼
親子
時尚
公開課

本地新聞

云游中國|逛世界風(fēng)箏都 留學(xué)生探秘中國傳統(tǒng)文化

數(shù)碼要聞

英偉達(dá)適配DeepSeek-V4 AI模型,開箱性能超150 tokens/sec/user

親子要聞

孩子上幼兒園第一天又哭又鬧?幾個原因,家長提前了解

上新|| 入夏第一件短袖,買它!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版