国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

中科院突破:語義空間技術(shù)提升AI視頻生成速度十倍

0
分享至


這項由浙江大學(xué)白建宏團隊聯(lián)合快手科技Kling團隊、香港中文大學(xué)、大連理工大學(xué)、華中科技大學(xué)等機構(gòu)共同完成的研究,于2024年12月發(fā)表在計算機視覺頂級會議上,論文編號為arXiv:2512.20619v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。這項名為SemanticGen的技術(shù)創(chuàng)新,徹底改變了傳統(tǒng)視頻生成"又慢又耗資源"的困境,首次實現(xiàn)了在高層語義空間中生成視頻的突破性方法。

目前的AI視頻生成就像用放大鏡逐個像素地畫油畫一樣緩慢。傳統(tǒng)方法需要處理海量的視頻細(xì)節(jié)信息,訓(xùn)練一個模型往往需要數(shù)十萬GPU小時,相當(dāng)于讓幾千臺高性能電腦不停工作幾個月。更讓人頭疼的是,當(dāng)你想生成稍長一點的視頻時,比如一分鐘的片段,計算量會呈幾何級數(shù)爆炸增長,讓很多研究機構(gòu)望而卻步。

SemanticGen的核心創(chuàng)新就像是先畫草圖再填細(xì)節(jié)的藝術(shù)創(chuàng)作方式。研究團隊發(fā)現(xiàn),與其直接在像素層面"硬磨",不如先在一個更抽象的語義空間中規(guī)劃整個視頻的大致框架和情節(jié)走向,然后再逐步添加視覺細(xì)節(jié)。這種方法不僅顯著提升了訓(xùn)練速度,還能生成長達一分鐘的高質(zhì)量視頻,而傳統(tǒng)方法在處理如此長的視頻時往往會出現(xiàn)嚴(yán)重的"記憶衰退"問題。

一、革命性的雙階段生成思路

傳統(tǒng)的視頻生成方式就像是一個畫家拿著畫筆直接在巨大的畫布上作畫,每一個細(xì)微的筆觸都需要考慮整體效果,這樣的工作方式不僅效率低下,還容易在長篇幅的創(chuàng)作中失去一致性。SemanticGen采用了一種全新的創(chuàng)作策略,將整個過程分為兩個階段,就像電影制作中先寫劇本大綱再拍攝細(xì)節(jié)的工作流程。

在第一個階段,系統(tǒng)會在一個高度壓縮的語義空間中生成視頻的"故事梗概"。這個語義空間就像是電影劇本中的場景描述,它包含了視頻中物體的位置關(guān)系、動作軌跡、場景變化等關(guān)鍵信息,但暫時不涉及具體的顏色、紋理、光影等視覺細(xì)節(jié)。研究團隊使用了一個擴散模型來學(xué)習(xí)和生成這些高層次的語義特征,這些特征定義了視頻的全局布局和基本情節(jié)發(fā)展。

第二個階段則像是給劇本配上詳細(xì)的分鏡頭和視覺效果。系統(tǒng)會根據(jù)第一階段生成的語義特征,使用另一個擴散模型來生成具體的VAE潛在表示,最終輸出我們看到的視頻畫面。這種分層的生成方式讓每個階段都能專注于自己最擅長的任務(wù),避免了傳統(tǒng)方法中"什么都要管,什么都管不好"的問題。

研究團隊發(fā)現(xiàn),在語義空間中進行生成相比在VAE潛在空間中直接生成,收斂速度快了很多。這就像是在地圖上規(guī)劃路線比在實地摸索要高效得多一樣,先有了整體的方向感,后續(xù)的細(xì)節(jié)填充就會變得更加有序和高效。

二、語義編碼器的巧妙選擇

為了實現(xiàn)在語義空間中的有效生成,研究團隊需要找到一個合適的"翻譯官",能夠?qū)⒃家曨l轉(zhuǎn)換成富含意義的語義表示。這個任務(wù)看似簡單,實則充滿挑戰(zhàn),就像需要找到一個既懂藝術(shù)又懂技術(shù)的專家來指導(dǎo)創(chuàng)作。

研究團隊確定了語義編碼器需要滿足的三個關(guān)鍵要求。首先,這個編碼器必須在大規(guī)模視頻數(shù)據(jù)集上進行過訓(xùn)練,這樣它才能理解視頻中的時序信息,比如物體是如何移動的,攝像機是如何轉(zhuǎn)動的。那些只在靜態(tài)圖像上訓(xùn)練的編碼器,就像只看過照片的人去指導(dǎo)電影拍攝,無法理解動態(tài)的時間關(guān)系。

其次,輸出的語義表示必須在空間和時間維度上都足夠緊湊。這個要求的核心思想是,由于視頻本身存在大量冗余信息,生成過程應(yīng)該首先在一個緊湊的高級語義空間中進行全局規(guī)劃,然后再添加視覺細(xì)節(jié),而不是直接對大量低級視頻標(biāo)記進行建模。

最后,語義編碼器應(yīng)該在多種視頻長度和分辨率上進行訓(xùn)練,這樣才能支持生成各種類型的視頻內(nèi)容,包括不同長寬比和時長的視頻。

基于這些考慮,研究團隊選擇了Qwen-2.5-VL的視覺塔作為語義編碼器。這個編碼器通過視覺語言對齊的方式在圖像和視頻數(shù)據(jù)集上進行了訓(xùn)練。對于視頻輸入,它首先以較低的幀率采樣視頻幀,然后將圖像塊壓縮成單個標(biāo)記,再沿每個維度進一步壓縮,最終將一個視頻轉(zhuǎn)換成緊湊的語義表示。

三、語義空間壓縮的精妙設(shè)計

研究團隊在實驗中發(fā)現(xiàn)了一個意外的現(xiàn)象:直接讓預(yù)訓(xùn)練的視頻擴散模型去擬合高維度的語義表示,效果并不理想,收斂速度慢,生成質(zhì)量也不如預(yù)期。這個發(fā)現(xiàn)就像是發(fā)現(xiàn)了一個看似完美的計劃在實際執(zhí)行中卻困難重重,需要進一步的優(yōu)化和調(diào)整。

經(jīng)過深入分析,研究團隊認(rèn)為這個問題有兩個主要原因。首先,高維度的語義特征包含了豐富的信息,這可能需要更長的訓(xùn)練時間才能完全掌握。其次,原始的語義空間可能不太適合擴散模型進行采樣,就像某些復(fù)雜的地形不適合車輛通行,需要修建更適合的道路。

為了解決這個問題,研究團隊設(shè)計了一個巧妙的解決方案:使用一個可學(xué)習(xí)的多層感知機來壓縮語義空間,使其更適合擴散模型的訓(xùn)練和采樣。這個MLP承擔(dān)著雙重任務(wù),既要降低語義表示的維度,又要將壓縮后的特征空間建模為高斯分布。

具體來說,MLP會輸出壓縮語義分布的均值和方差,研究團隊還加入了KL散度作為正則化項,鼓勵學(xué)到的壓縮語義空間盡可能接近標(biāo)準(zhǔn)高斯分布。這種設(shè)計讓后續(xù)的語義表示生成模型更容易擬合和采樣,就像為復(fù)雜的路況修建了一條平坦的高速公路。

采樣得到的語義嵌入會通過上下文條件的方式注入到擴散模型中。在訓(xùn)練過程中,系統(tǒng)首先將輸入視頻送入語義編碼器和可學(xué)習(xí)的MLP,得到其緊湊的語義表示,然后將這個表示與加噪的VAE潛在表示拼接作為模型的輸入。為了驗證壓縮語義表示確實捕獲了視頻的高層語義并能有效指導(dǎo)生成,研究團隊還進行了一個有趣的實驗:從參考視頻中提取語義特征,然后注入到VAE潛在生成器中,生成的視頻確實保持了參考視頻的空間布局和運動模式,同時在細(xì)節(jié)上有所不同。

四、長視頻生成的創(chuàng)新策略

傳統(tǒng)的基于擴散的視頻生成方法在處理長視頻時面臨著一個根本性的挑戰(zhàn):雙向注意力的計算成本隨著視頻長度的增加呈二次方增長。這就像是在一個越來越大的房間里,每個人都要和房間里的每個人握手,當(dāng)房間變得足夠大時,這種"全連接"的交流方式就變得不現(xiàn)實了。

SemanticGen提出了一個巧妙的解決方案來應(yīng)對這個挑戰(zhàn)。其核心思想是在生成長視頻時,只在高度壓縮的語義空間中進行全注意力建模,以保持整個視頻中場景和角色的一致性,而在映射到VAE潛在空間時則使用滑動窗口注意力,確保計算成本不會隨著幀數(shù)的增加而爆炸性增長。

這種策略的巧妙之處在于充分利用了語義空間的高壓縮比特性。在研究團隊的實現(xiàn)中,語義空間的標(biāo)記數(shù)量只有VAE標(biāo)記的十六分之一,這意味著在語義空間中進行全注意力建模只會增加很少的額外計算成本。同時,由于語義表示天然地具有高壓縮比,語義表示生成過程引入的計算開銷可以忽略不計。

在VAE潛在生成階段,研究團隊采用了滑動窗口注意力機制。具體來說,他們將VAE潛在表示和對應(yīng)的語義表示交錯排列,將長度為Tw的視頻的兩種標(biāo)記都放入一個注意力窗口中,然后在奇數(shù)層中將窗口滑動半個窗口大小Tw/2。這種設(shè)計既保證了局部的精細(xì)建模,又通過語義信息的全局指導(dǎo)保持了長程一致性。

這種混合注意力策略就像是在管理一個大型企業(yè)時,高層管理者(語義空間)負(fù)責(zé)全局戰(zhàn)略規(guī)劃和協(xié)調(diào),而具體的執(zhí)行部門(VAE潛在空間)則專注于局部的精細(xì)操作。通過這種分工合作,既保證了整體的協(xié)調(diào)性,又提高了執(zhí)行效率。

五、實驗驗證與性能評估

研究團隊進行了全面而嚴(yán)格的實驗驗證,就像是對一個新發(fā)明進行全方位的測試,確保它在各種條件下都能穩(wěn)定可靠地工作。他們的實驗設(shè)計覆蓋了短視頻生成和長視頻生成兩個主要場景,并與當(dāng)前最先進的方法進行了詳細(xì)對比。

在短視頻生成方面,研究團隊使用了標(biāo)準(zhǔn)的VBench基準(zhǔn)測試,這是視頻生成領(lǐng)域廣泛認(rèn)可的評估標(biāo)準(zhǔn)。實驗結(jié)果顯示,SemanticGen在主體一致性、背景一致性、時序平滑性等關(guān)鍵指標(biāo)上都表現(xiàn)優(yōu)異,與最先進的基線方法相當(dāng)甚至更好。特別值得注意的是,SemanticGen在文本遵循準(zhǔn)確性方面表現(xiàn)突出,能夠準(zhǔn)確地根據(jù)文本提示生成相應(yīng)的視頻內(nèi)容。

長視頻生成的實驗結(jié)果更加令人印象深刻。研究團隊使用了VBench-Long基準(zhǔn)測試,并引入了專門用于評估長視頻質(zhì)量漂移的ΔMdrift指標(biāo)。這個指標(biāo)通過比較視頻開始和結(jié)束部分的質(zhì)量差異來衡量生成過程中的累積誤差。實驗結(jié)果顯示,SemanticGen在長視頻一致性和時序穩(wěn)定性方面顯著優(yōu)于所有基線方法,ΔMdrift值達到了3.58,遠(yuǎn)低于其他方法的5.20到12.39。

為了確保比較的公平性,研究團隊還設(shè)計了控制實驗。他們使用相同的基礎(chǔ)模型、訓(xùn)練數(shù)據(jù)和訓(xùn)練步數(shù),只是采用標(biāo)準(zhǔn)的擴散損失而不使用語義建模,來訓(xùn)練對比基線。這些被稱為Base-CT和Base-Swin-CT的基線模型為評估SemanticGen的真實效果提供了可靠的參照。結(jié)果表明,即使在嚴(yán)格控制其他變量的情況下,SemanticGen仍然表現(xiàn)出明顯的優(yōu)勢。

六、語義空間壓縮的深度分析

研究團隊對語義空間壓縮策略進行了細(xì)致的消融實驗,就像是解剖一個精密機器的每個零件,了解每個組件對整體性能的貢獻。他們使用Qwen2.5-VL3B-Instruct的視覺塔作為語義編碼器,原始語義表示的維度為2048。

實驗設(shè)計包括三種不同的設(shè)置:不使用MLP壓縮(維持2048維)、使用64維輸出的MLP壓縮、以及使用8維輸出的MLP壓縮。每種設(shè)置都訓(xùn)練了相應(yīng)的VAE潛在生成器和語義生成模型,然后在相同的測試集上進行評估。

實驗結(jié)果揭示了一個有趣的現(xiàn)象:隨著語義表示維度的降低,生成視頻的視覺質(zhì)量實際上在提升。8維壓縮版本在幾乎所有VBench指標(biāo)上都表現(xiàn)最佳,包括主體一致性97.49%、背景一致性97.34%、時序平滑性98.27%等。這個結(jié)果表明,適度的壓縮不僅沒有損失信息,反而幫助模型更好地捕捉了關(guān)鍵的語義結(jié)構(gòu)。

從定性結(jié)果來看,未經(jīng)壓縮的版本往往產(chǎn)生更多的破碎幀和視覺偽影,而壓縮版本的視頻更加連貫和自然。這個現(xiàn)象可以用信息理論來解釋:過于豐富的信息可能包含了大量噪聲,適度的壓縮實際上起到了降噪的作用,讓模型更容易學(xué)習(xí)到真正重要的語義模式。

七、與其他技術(shù)路線的對比分析

為了更深入地理解SemanticGen的優(yōu)勢,研究團隊還與另一種技術(shù)路線進行了對比:使用相同的兩階段框架,但學(xué)習(xí)壓縮的VAE潛在表示而不是語義特征。這個對比實驗就像是在兩種不同的地圖制作方法之間進行選擇,一種基于地理特征,另一種基于行政區(qū)劃。

實驗結(jié)果清晰地展示了語義空間的獨特優(yōu)勢。在相同的訓(xùn)練步數(shù)下,基于語義特征的模型已經(jīng)能夠生成相對合理的視頻內(nèi)容,而基于壓縮VAE潛在表示的模型仍然只能產(chǎn)生粗糙的色彩塊。這個差異表明,語義空間確實為視頻生成提供了一個更自然、更高效的中間表示。

這種差異的根本原因在于語義表示和VAE潛在表示的本質(zhì)不同。語義表示更接近人類理解視頻的方式,它關(guān)注的是"這里有一個人在走路"而不是"這個像素是紅色的,那個像素是藍色的"。這種高層次的抽象讓模型能夠更快地學(xué)習(xí)到視頻的基本結(jié)構(gòu)和動態(tài)模式。

研究團隊的收斂速度分析進一步證實了這一點。語義空間中的建模收斂速度明顯快于VAE潛在空間,這不僅節(jié)省了大量的計算資源,也為實際應(yīng)用提供了更好的可行性。在當(dāng)前AI訓(xùn)練成本日益高漲的背景下,這種效率提升具有重要的實用價值。

八、技術(shù)局限性與未來展望

如同任何創(chuàng)新技術(shù)一樣,SemanticGen也存在一些局限性,研究團隊對此進行了坦誠的討論。這種開放的態(tài)度就像是一個誠實的工匠,既為自己的作品感到自豪,也清楚地知道還有哪些地方需要改進。

在長視頻生成中,SemanticGen在維持紋理一致性方面存在挑戰(zhàn)。由于語義特征無法完全保留細(xì)粒度的視覺細(xì)節(jié),生成的長視頻有時會在紋理、材質(zhì)等細(xì)節(jié)方面出現(xiàn)不一致的現(xiàn)象。這就像是一個導(dǎo)演能夠很好地控制電影的整體情節(jié)和人物關(guān)系,但在服裝道具的細(xì)節(jié)上可能會出現(xiàn)前后不一致的小錯誤。

另一個重要的局限性來自于語義編碼器本身的約束。當(dāng)前使用的編碼器以相對較低的幀率對輸入視頻進行采樣,這導(dǎo)致高頻時間信息的丟失。在處理閃電、爆炸等快速變化的場景時,生成的視頻可能會缺少一些瞬間的視覺效果。這個問題就像是用普通相機拍攝高速運動的物體,總會錯過一些精彩的瞬間。

展望未來,研究團隊認(rèn)為有幾個方向值得深入探索。首先是開發(fā)更強大的視頻語義編碼器,既能實現(xiàn)高時間壓縮比又能以高采樣率處理原始視頻,從而更好地建模高頻時間信息。其次是系統(tǒng)性地分析不同語義編碼器的效果,探索哪種訓(xùn)練范式更適合視頻生成任務(wù)。

此外,研究團隊還指出,SemanticGen的框架設(shè)計具有很強的通用性,不局限于特定的語義編碼器。隨著視頻理解技術(shù)的不斷進步,更先進的語義編碼器可以無縫集成到這個框架中,進一步提升生成效果。

九、實際應(yīng)用前景與社會影響

SemanticGen的技術(shù)突破不僅僅是學(xué)術(shù)研究的成果,它更預(yù)示著視頻內(nèi)容創(chuàng)作領(lǐng)域即將迎來的重大變革。這種變革的影響可能會深入到我們?nèi)粘I畹姆椒矫婷妫瑥膴蕵樊a(chǎn)業(yè)到教育培訓(xùn),從新聞傳播到個人表達。

在影視制作領(lǐng)域,SemanticGen可以大大降低概念視頻和預(yù)覽版本的制作成本。電影制片人可以快速生成不同版本的場景預(yù)覽,在投入大量資源進行實際拍攝之前就確定最佳的視覺方案。這就像是在建造房子之前先做詳細(xì)的3D模型,避免了昂貴的返工成本。

對于教育和培訓(xùn)行業(yè),這項技術(shù)開啟了全新的可能性。教師可以根據(jù)教學(xué)內(nèi)容快速生成相應(yīng)的視頻素材,讓抽象的概念變得更加生動直觀。醫(yī)學(xué)院的學(xué)生可以觀看根據(jù)病例描述生成的手術(shù)過程視頻,工程專業(yè)的學(xué)生可以看到復(fù)雜機械結(jié)構(gòu)的運作過程。

在個人創(chuàng)作和社交媒體方面,SemanticGen讓普通用戶也能成為視頻內(nèi)容的創(chuàng)造者。你只需要用文字描述你想要的場景,系統(tǒng)就能幫你生成相應(yīng)的視頻內(nèi)容。這種技術(shù)民主化的趨勢讓創(chuàng)意表達不再受限于技術(shù)門檻和經(jīng)濟條件。

當(dāng)然,這項技術(shù)的普及也帶來了新的思考。如何區(qū)分真實視頻和AI生成視頻將成為一個重要議題,相關(guān)的標(biāo)識和監(jiān)管機制需要跟上技術(shù)發(fā)展的步伐。同時,內(nèi)容創(chuàng)作者需要適應(yīng)新的創(chuàng)作模式,將重心從技術(shù)操作轉(zhuǎn)向創(chuàng)意構(gòu)思和質(zhì)量把控。

說到底,SemanticGen代表的不僅是視頻生成技術(shù)的進步,更是人工智能在理解和創(chuàng)造視覺內(nèi)容方面的重要突破。通過在語義空間中進行生成,這項技術(shù)讓AI更接近人類的創(chuàng)作思維模式,從整體規(guī)劃到細(xì)節(jié)完善,從抽象構(gòu)思到具體實現(xiàn)。這種符合人類認(rèn)知習(xí)慣的技術(shù)設(shè)計,可能會成為未來AI系統(tǒng)發(fā)展的重要方向。隨著技術(shù)的不斷完善和普及,我們有理由相信,視頻內(nèi)容的創(chuàng)作和消費方式將迎來前所未有的變革,而SemanticGen正是這場變革的重要推動力。研究團隊的這項工作為整個領(lǐng)域提供了新的思路和可能性,相信會激發(fā)更多創(chuàng)新研究的出現(xiàn)。

Q&A

Q1:SemanticGen和傳統(tǒng)視頻生成方法有什么本質(zhì)區(qū)別?

A:傳統(tǒng)方法就像直接在畫布上逐個像素地作畫,而SemanticGen采用先畫草圖再填細(xì)節(jié)的方式。它首先在語義空間規(guī)劃視頻的整體結(jié)構(gòu)和動作軌跡,然后再生成具體的視覺細(xì)節(jié),這樣不僅速度更快,還能更好地保持長視頻的一致性。

Q2:為什么SemanticGen能夠生成更長的視頻?

A:主要因為它采用了混合注意力策略。在語義空間中使用全注意力保持全局一致性,在VAE空間中使用滑動窗口注意力控制計算成本。由于語義空間的壓縮比很高,全注意力的計算開銷很小,而局部注意力則避免了計算量隨視頻長度爆炸性增長的問題。

Q3:普通人什么時候能用上SemanticGen技術(shù)?

A:雖然論文沒有明確商業(yè)化時間表,但這項技術(shù)已經(jīng)在快手等公司內(nèi)部得到驗證??紤]到視頻生成技術(shù)的快速發(fā)展趨勢,預(yù)計在不久的將來就會有基于類似技術(shù)的產(chǎn)品面向普通用戶開放,讓更多人能夠輕松創(chuàng)作高質(zhì)量的視頻內(nèi)容。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
許光達愧受大將軍銜,他對賀老總說:段師長才是實至名歸的大將

許光達愧受大將軍銜,他對賀老總說:段師長才是實至名歸的大將

健康快樂丁
2026-01-01 19:11:26
我是河南人,從臺灣回來,實在忍不住想說:臺灣給我的5點印象

我是河南人,從臺灣回來,實在忍不住想說:臺灣給我的5點印象

i書與房
2026-01-01 16:58:55
僅12天丟掉冠軍,《阿凡達3》被黃曉明打敗,210億票房夢徹底碎了

僅12天丟掉冠軍,《阿凡達3》被黃曉明打敗,210億票房夢徹底碎了

影視高原說
2026-01-01 09:21:50
2026年開始,為什么建議大家盡量使用現(xiàn)金支付,原因很現(xiàn)實

2026年開始,為什么建議大家盡量使用現(xiàn)金支付,原因很現(xiàn)實

李博世財經(jīng)
2026-01-01 17:03:43
美國提醒日本,小心被中國揍!日本天皇急召高市早苗:有要事交代

美國提醒日本,小心被中國揍!日本天皇急召高市早苗:有要事交代

興史興談
2025-12-31 18:51:20
房貸利率1月1日起下調(diào)

房貸利率1月1日起下調(diào)

財聞
2026-01-01 15:17:51
停工450天,訂單銳減40%!外資集體“大撤離”,世界工廠時代結(jié)束了?

停工450天,訂單銳減40%!外資集體“大撤離”,世界工廠時代結(jié)束了?

劉曠
2026-01-01 20:01:47
小米 17 Ultra的最強賣點,卻成了用戶退貨的理由

小米 17 Ultra的最強賣點,卻成了用戶退貨的理由

藍字計劃
2025-12-31 16:28:39
最低溫-11℃!小雪局部中雪、小雨或雨夾雪,陣風(fēng)7~8級,山東最新元旦假期天氣→

最低溫-11℃!小雪局部中雪、小雨或雨夾雪,陣風(fēng)7~8級,山東最新元旦假期天氣→

魯中晨報
2026-01-01 16:25:12
摔毛巾+提前離場!名嘴炮轟華子無領(lǐng)袖擔(dān)當(dāng) 狼媒卻直指管理層摳門

摔毛巾+提前離場!名嘴炮轟華子無領(lǐng)袖擔(dān)當(dāng) 狼媒卻直指管理層摳門

顏小白的籃球夢
2026-01-01 19:04:23
CBA最新消息!廣東男籃又傷主力,遼寧無換外援計劃 新疆官宣裁員

CBA最新消息!廣東男籃又傷主力,遼寧無換外援計劃 新疆官宣裁員

中國籃壇快訊
2026-01-01 15:51:34
喜訊!國足最強歸化來了?當(dāng)事人親承確有其事,單賽季21球7助攻

喜訊!國足最強歸化來了?當(dāng)事人親承確有其事,單賽季21球7助攻

羅掌柜體育
2026-01-01 10:38:06
馬克龍:將確保法國總統(tǒng) 選舉不受外國干預(yù)

馬克龍:將確保法國總統(tǒng) 選舉不受外國干預(yù)

每日經(jīng)濟新聞
2026-01-01 09:47:14
一九七六年元旦社論 1976年1月1日《人民日報》

一九七六年元旦社論 1976年1月1日《人民日報》

那些看得見的老照片
2026-01-01 16:37:37
深夜!茅臺放大招:1499買飛天,每人每日限購12瓶!

深夜!茅臺放大招:1499買飛天,每人每日限購12瓶!

中國基金報
2026-01-01 00:13:38
劉伯承逝世后,有人建議照顧其后人,鄧小平當(dāng)即拒絕:我們不能幫

劉伯承逝世后,有人建議照顧其后人,鄧小平當(dāng)即拒絕:我們不能幫

歷史龍元閣
2025-12-30 13:35:08
國乒傳喜訊!24歲主力戀情曝光,女友是日本主力,跨國戀情引熱議

國乒傳喜訊!24歲主力戀情曝光,女友是日本主力,跨國戀情引熱議

體育就你秀
2026-01-01 09:17:30
給2025最好的10部國產(chǎn)劇排名:《生萬物》僅排第2,第1名沒有爭議

給2025最好的10部國產(chǎn)劇排名:《生萬物》僅排第2,第1名沒有爭議

小老頭奇聞
2026-01-01 19:28:01
朱元璋逃難到寡婦家,臨走前寡婦害怕懷孕,朱元璋的做法令人敬佩

朱元璋逃難到寡婦家,臨走前寡婦害怕懷孕,朱元璋的做法令人敬佩

銘記歷史呀
2025-12-29 02:30:03
2025年有一種痛苦叫搬進了“大平層”,不好住不好賣,已淪不動產(chǎn)

2025年有一種痛苦叫搬進了“大平層”,不好住不好賣,已淪不動產(chǎn)

巢客HOME
2025-12-25 07:25:03
2026-01-01 20:48:49
至頂AI實驗室 incentive-icons
至頂AI實驗室
一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實驗室。
896文章數(shù) 151關(guān)注度
往期回顧 全部

科技要聞

特斯拉Model 3車主首度全程自駕橫穿美國

頭條要聞

女子稱奶奶去世公司不批假被逼離職 公司法人:害群之馬

頭條要聞

女子稱奶奶去世公司不批假被逼離職 公司法人:害群之馬

體育要聞

2026,這些英超紀(jì)錄可能會被打破

娛樂要聞

跨年零點時刻好精彩!何炅飛奔擁抱

財經(jīng)要聞

巴菲特「身退,權(quán)還在」

汽車要聞

一汽-大眾2025年整車銷量超158萬輛 燃油車市占率創(chuàng)新高

態(tài)度原創(chuàng)

親子
旅游
藝術(shù)
教育
手機

親子要聞

這三種兒科檢查,可以當(dāng)面拒絕醫(yī)生!

旅游要聞

黑龍江方正:360°玩轉(zhuǎn)冰雪

藝術(shù)要聞

投資40億!湖南郴州最大的爛尾商場,誰在買單?

教育要聞

辭舊迎新 歡樂滿園 ——青島敦化路小學(xué)2026元旦慶?;顒泳驶仡?/h3>

手機要聞

疑似麒麟9050爆料:1+7+2十核架構(gòu)加持,多核跑分突破9200!

無障礙瀏覽 進入關(guān)懷版