国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

香港大學等機構聯(lián)合突破:讓AI畫圖速度提升10倍的神奇方法

0
分享至


這項由香港大學、字節(jié)跳動和北京大學聯(lián)合開展的突破性研究發(fā)表于2024年12月,論文編號為arXiv:2412.15119v3。有興趣深入了解的讀者可以通過該編號查詢完整論文。

當你使用AI生成一張圖片時,是否覺得等待時間太長?就像在餐廳點餐后,廚師必須一道菜一道菜按順序制作,不能同時準備多道菜一樣,傳統(tǒng)的AI圖像生成也面臨著類似的瓶頸。研究人員發(fā)現(xiàn)了一個令人興奮的解決方案,可以讓AI"同時制作多道菜",將圖像生成速度提升3.6到9.5倍,而且?guī)缀醪挥绊憟D片質量。

這種被稱為PAR(Parallelized Autoregressive Visual Generation)的方法,就像讓一個原本只能單線程工作的超級畫師學會了多線程協(xié)作。在傳統(tǒng)方式中,AI必須像素接像素地依次繪制每個部分,就好比一個畫家必須嚴格按照從左到右、從上到下的順序來完成一幅畫作。而新方法則讓AI學會了在畫布的不同區(qū)域同時工作,既保持了畫面的整體協(xié)調性,又大大縮短了完成時間。

研究團隊深入分析了AI繪畫過程中的"依賴關系"。他們發(fā)現(xiàn),畫面中相鄰區(qū)域的內容往往聯(lián)系緊密,就像畫一只老虎時,左眼和右眼的形狀必須協(xié)調一致。但畫面中相距較遠的區(qū)域,比如老虎的頭部和尾巴,它們之間的直接依賴關系就相對較弱。基于這個洞察,研究人員設計了一種巧妙的策略:先讓AI確定各個區(qū)域的基本框架,然后在不同區(qū)域間并行完成細節(jié)繪制。

這項創(chuàng)新的意義遠不止于速度提升。在當前AI圖像和視頻生成技術快速發(fā)展的背景下,計算效率已成為制約實際應用的重要瓶頸。研究團隊的方法為這一領域提供了全新的思路,證明了在保持生成質量的前提下大幅提升效率是完全可行的。更重要的是,這種方法可以無縫集成到現(xiàn)有的AI模型中,無需改變底層架構,這意味著它具有廣泛的應用前景。

一、從"流水線生產"到"并行制造"的革命性轉變

傳統(tǒng)的AI圖像生成就像一條嚴格的流水線,每個步驟都必須等待前一個步驟完成后才能開始。這種被稱為"自回歸"的方法,雖然能夠產生高質量的圖像,但速度慢得令人頭疼。當AI生成一張包含576個基本單元的圖片時,需要執(zhí)行576個連續(xù)步驟,就像一個工人必須獨自完成576道工序一樣。

研究人員首先深入研究了為什么并行生成如此困難。他們發(fā)現(xiàn),問題的核心在于圖像不同部分之間的"依賴關系"。當你畫一張臉時,左眼的位置會影響右眼的繪制,鼻子的形狀會影響嘴巴的位置。如果同時繪制這些相互關聯(lián)的部分,很容易出現(xiàn)不協(xié)調的結果,就像兩個廚師同時調味一道菜,結果可能過咸或過淡。

通過大量實驗,研究團隊發(fā)現(xiàn)了一個重要規(guī)律:圖像中距離越遠的區(qū)域,它們之間的依賴關系就越弱。這就像裝修房子時,客廳的裝修風格雖然會影響臥室的選擇,但對廚房的影響就相對較小?;谶@個發(fā)現(xiàn),他們提出了"非局部并行生成"的策略,讓AI在相距較遠的區(qū)域同時工作,避免了強依賴關系帶來的沖突。

這種方法的巧妙之處在于它的兩階段設計。第一階段,AI先順序確定每個區(qū)域的"基調",就像畫家先用簡單的線條勾勒出整幅畫的基本構圖。這個過程雖然是順序的,但因為只涉及每個區(qū)域的第一個基本單元,所以耗時很短。第二階段,AI在各個區(qū)域間并行填充細節(jié),就像多個助手同時在不同房間進行裝修,既互不干擾又能保持整體風格的一致性。

二、巧妙的"區(qū)域分工"策略

研究團隊將整張圖片劃分成若干個小區(qū)域,就像把一塊大拼圖分成幾個小塊。每個區(qū)域內部的繪制仍然保持順序進行,因為這些相鄰的像素之間關系密切,需要精心協(xié)調。但不同區(qū)域之間的對應位置可以同時繪制,因為它們之間的直接影響相對較小。

這種分工策略的核心思想可以用餐廳的例子來理解。在傳統(tǒng)方式中,一個廚師必須完成所有菜品的制作,從前菜到主菜再到甜點,嚴格按順序進行。而新方法則像是雇傭了多個專業(yè)廚師,每人負責不同類型的菜品,但他們需要在開始制作前先商量好整個宴會的風格和主題,確保所有菜品能夠和諧搭配。

具體實施時,AI首先生成每個區(qū)域的"錨點",這些錨點就像建筑的基礎框架,確定了整體的結構和風格。然后,AI開始并行處理各個區(qū)域的細節(jié)。比如在生成一張包含老虎的圖片時,AI先確定老虎頭部、身體、四肢和尾巴各個區(qū)域的基本形態(tài),然后同時為這些區(qū)域添加紋理、色彩和細節(jié)。

這種方法的優(yōu)勢不僅體現(xiàn)在速度上,還保持了圖像的全局一致性。因為每個區(qū)域在并行處理時都能"看到"其他區(qū)域已經(jīng)完成的部分,所以整體風格能夠保持協(xié)調。這就像一個交響樂團,雖然不同聲部同時演奏,但每個音樂家都能聽到整體的和諧,確保自己的演奏與整體完美融合。

三、技術實現(xiàn)的精妙設計

研究團隊在技術實現(xiàn)上展現(xiàn)了remarkable的工程智慧。他們沒有完全推翻現(xiàn)有的AI架構,而是通過巧妙的改進讓舊系統(tǒng)煥發(fā)新活力。這種做法就像對一輛經(jīng)典汽車進行改裝,保留原有的優(yōu)秀設計,同時安裝更強大的引擎和更先進的傳動系統(tǒng)。

在模型設計中,研究人員引入了幾個關鍵的創(chuàng)新元素。首先是"可學習的轉換令牌",這些特殊的信號幫助AI從順序模式切換到并行模式,就像交通信號燈指示車輛從單車道匯入多車道高速公路。這些令牌經(jīng)過專門訓練,能夠協(xié)調不同處理模式之間的平滑轉換。

另一個重要創(chuàng)新是"組內雙向注意力機制"。在傳統(tǒng)的順序生成中,AI只能"向后看",參考之前已經(jīng)生成的內容。而在并行生成中,同一組的所有元素都可以相互參考,但仍然遵循組與組之間的先后順序。這就像一個討論小組內的成員可以自由交流想法,但必須聽完前一個小組的發(fā)言才能開始討論。

位置編碼的處理也體現(xiàn)了研究團隊的細致考慮。由于并行生成改變了處理順序,AI需要知道每個元素在原始圖像中的確切位置。研究人員采用了二維旋轉位置編碼技術,讓AI即使在重新排序的情況下也能準確理解每個像素的空間關系,就像GPS系統(tǒng)無論你走哪條路都能準確定位你的位置。

模型的規(guī)模設計也經(jīng)過了精心考慮。研究團隊測試了從3.43億到31億參數(shù)的不同規(guī)模模型,發(fā)現(xiàn)較大的模型在并行生成時表現(xiàn)更好。這是因為更大的模型具有更強的能力來處理并行生成時的復雜依賴關系,就像更有經(jīng)驗的指揮家能夠更好地協(xié)調大型交響樂團的演出。

四、令人驚喜的實驗結果

研究團隊在ImageNet和UCF-101這兩個重要數(shù)據(jù)集上進行了全面測試,結果令人印象深刻。在圖像生成任務中,使用4倍并行的版本將生成步數(shù)從576步減少到147步,實際運行時間從12.41秒縮短到3.46秒,速度提升了3.6倍,而圖像質量幾乎沒有下降。更激進的16倍并行版本將時間進一步縮短到1.31秒,實現(xiàn)了9.5倍的加速,質量損失也控制在可接受范圍內。

這些數(shù)字背后的意義重大。在實際應用中,生成一張高質量圖片的時間從需要十幾秒縮短到一兩秒,這種改進能夠顯著提升用戶體驗。對于需要批量生成圖像的應用場景,比如電影特效制作或游戲開發(fā),這種加速能夠大大降低制作成本和時間。

視頻生成領域的結果同樣令人鼓舞。在UCF-101數(shù)據(jù)集上,傳統(tǒng)方法需要1280個步驟生成一個17幀的視頻,耗時43.30秒。4倍并行版本將步驟減少到323步,時間縮短到11.27秒,16倍并行版本更是將時間壓縮到3.44秒,實現(xiàn)了12.6倍的加速。更重要的是,視頻質量評估指標FVD(Fréchet Video Distance)僅有輕微上升,表明視頻的連貫性和真實感基本保持不變。

研究團隊還進行了詳細的消融實驗,驗證了設計中每個組件的重要性。他們發(fā)現(xiàn),順序生成初始令牌這一步驟雖然只增加了3個額外步驟,但將圖像質量評估指標FID從3.67改善到2.61,證明了建立全局結構的重要性。不同的注意力模式測試顯示,組內全注意力比因果注意力效果更好,驗證了讓并行元素相互參考的設計價值。

令人印象深刻的是,這種方法還展現(xiàn)出了良好的泛化能力。在512×512分辨率的零樣本生成測試中,盡管模型只在384×384分辨率上訓練,但仍能生成質量良好的高分辨率圖像。這種泛化能力對實際應用具有重要價值,因為用戶往往需要不同分辨率的圖像。

五、深入理解背后的科學原理

為了更好地理解為什么這種方法如此有效,研究團隊深入分析了圖像生成過程中的信息依賴關系。他們使用條件熵這一信息論工具來量化不同位置像素之間的依賴強度。條件熵可以理解為"在知道某些信息的情況下,對未知信息的不確定性程度",數(shù)值越低表示依賴關系越強。

通過對ImageNet數(shù)據(jù)集上10,000張圖像的分析,研究人員繪制了詳細的依賴關系地圖。結果清楚地顯示,相鄰像素之間確實存在強依賴關系,而距離較遠的像素之間依賴關系要弱得多。這種依賴關系的空間分布模式為并行生成策略提供了理論基礎。

更有趣的發(fā)現(xiàn)是,不同生成順序對并行生成難度的影響截然不同。當使用傳統(tǒng)的逐行掃描順序進行并行生成時,F(xiàn)ID評估指標急劇惡化到5.64,表明圖像質量嚴重下降。而使用研究團隊提出的區(qū)域間并行順序時,F(xiàn)ID僅輕微上升到2.61,幾乎保持了原有質量。這個對比實驗生動地證明了選擇合適的并行策略的重要性。

研究團隊還分析了模型規(guī)模對并行生成效果的影響。他們發(fā)現(xiàn),隨著模型參數(shù)從3.43億增加到31億,并行生成的質量穩(wěn)步提升。這表明更大的模型具有更強的能力來處理并行生成時的復雜依賴關系,就像更有經(jīng)驗的廚師能夠更好地協(xié)調多道菜品的同時制作。

六、與現(xiàn)有技術的全面比較

在與其他先進方法的比較中,這項研究展現(xiàn)了獨特的優(yōu)勢。相比于MaskGIT等基于掩碼的非自回歸方法,PAR在保持自回歸模型優(yōu)勢的同時實現(xiàn)了顯著加速。MaskGIT雖然只需8個步驟,但FID指標為6.18,而PAR-3B-4×用147個步驟就達到了2.29的更好效果。

與VAR(Visual Autoregressive)方法相比,PAR展現(xiàn)了更好的平衡性。VAR通過多尺度預測實現(xiàn)了快速生成,10步即可完成,F(xiàn)ID達到1.97,但需要專門設計的多尺度標記器和更長的令牌序列。PAR則可以直接應用于標準的自回歸模型,無需特殊的架構修改,在實際部署中更加靈活。

在與擴散模型的比較中,PAR顯示出了計算效率的優(yōu)勢。DiT-XL/2雖然能達到2.27的優(yōu)秀FID指標,但需要250個推理步驟,而PAR-3B-4×僅用147步就實現(xiàn)了相近的2.29 FID。更重要的是,PAR的并行特性使其在硬件利用率上有天然優(yōu)勢,特別適合現(xiàn)代GPU的并行計算能力。

與其他自回歸方法如LlamaGen的直接比較最能體現(xiàn)PAR的價值。在相同的模型規(guī)模和訓練設置下,PAR-3B-4×將生成時間從12.41秒縮短到3.46秒,步驟從576步減少到147步,而FID指標從2.18僅略微上升到2.29。這種在保持質量的前提下實現(xiàn)的大幅加速,為自回歸視覺生成開辟了新的可能性。

七、實際應用前景和未來發(fā)展

這項研究的實際應用前景廣闊而激動人心。在內容創(chuàng)作領域,快速高質量的圖像生成能夠大大提升創(chuàng)作效率。設計師可以在幾秒鐘內生成多個設計方案,而不是等待十幾秒才能看到一個結果。這種速度提升將改變創(chuàng)意工作的節(jié)奏,讓靈感的驗證變得更加即時和流暢。

在游戲開發(fā)領域,實時或近實時的圖像生成能夠為程序化內容生成開啟新的可能性。游戲可以根據(jù)玩家的行為動態(tài)生成場景、角色或物品,創(chuàng)造更加個性化和豐富的游戲體驗。電影和動畫制作中,快速的圖像生成能夠加速概念設計和預可視化過程,讓創(chuàng)作者更快地迭代想法。

研究團隊還展示了該方法與現(xiàn)有工程優(yōu)化技術的兼容性。通過結合PyTorch編譯優(yōu)化,PAR-3B-4×的速度進一步提升到1.15秒,而PAR-3B-16×更是達到了0.43秒的驚人速度。這表明算法層面的創(chuàng)新和工程層面的優(yōu)化可以相互配合,產生更大的效益。

視頻生成領域的應用前景同樣令人期待。隨著短視頻內容的爆發(fā)式增長,快速的視頻生成技術將為內容創(chuàng)作者提供強大的工具。廣告制作、教育視頻、社交媒體內容等都可能從中受益。研究團隊已經(jīng)證明了該方法在視頻生成上的有效性,未來有望在時間維度上實現(xiàn)更大的突破。

研究人員還指出了一些值得進一步探索的方向。在時間維度的并行化方面,由于視頻幀之間的強時序依賴關系,簡單的并行策略效果有限,需要更加精細的設計。多模態(tài)生成是另一個有趣的方向,將文本、圖像、音頻等不同模態(tài)的并行生成相結合,可能會產生更加豐富和復雜的應用。

八、技術創(chuàng)新的深層意義

這項研究的意義遠超表面的速度提升,它代表了AI生成技術發(fā)展方式的重要轉變。傳統(tǒng)上,提升AI性能主要依賴于增加模型規(guī)模、延長訓練時間或改進架構設計,這些方法往往需要大量的計算資源投入。而PAR展示了一種不同的思路:通過深入理解任務的內在結構和依賴關系,可以在不顯著增加計算資源的情況下實現(xiàn)性能飛躍。

從更廣闊的視角來看,這種研究方法論具有普遍性價值。許多看似必須順序執(zhí)行的任務,實際上可能包含可以并行處理的部分。關鍵在于識別這些任務的依賴結構,找到合適的并行化策略。這種思維方式不僅適用于AI領域,也可能啟發(fā)其他計算密集型任務的優(yōu)化。

研究團隊特別強調了方法的通用性和可擴展性。PAR不需要專門的硬件支持,不需要復雜的架構修改,也不需要重新訓練現(xiàn)有模型。這種"即插即用"的特性大大降低了技術采用的門檻,使得更多的研究者和開發(fā)者能夠從中受益。這種設計哲學體現(xiàn)了優(yōu)秀技術創(chuàng)新的特質:簡單、有效、通用。

在理論層面,這項研究為自回歸模型的并行化提供了新的理論框架。傳統(tǒng)觀點認為自回歸模型由于其嚴格的依賴關系難以并行化,而PAR證明了通過合理的任務分解和依賴分析,可以在保持模型優(yōu)勢的同時實現(xiàn)顯著的并行化。這種理論突破可能會啟發(fā)更多類似的創(chuàng)新。

說到底,這項由香港大學、字節(jié)跳動和北京大學聯(lián)合完成的研究,為AI圖像和視頻生成帶來了一次實用性的重大飛躍。它不是通過堆砌更多參數(shù)或設計更復雜架構來提升性能,而是通過深入理解問題本質,找到了巧妙的解決方案。這種研究方法的價值可能比具體技術創(chuàng)新更加深遠。

從用戶角度來看,等待AI生成內容的時間大大縮短,意味著創(chuàng)作過程變得更加流暢和富有創(chuàng)造性。從開發(fā)者角度來看,這種方法的簡單性和通用性使其容易集成和部署。從研究者角度來看,PAR開啟了自回歸模型并行化的新研究方向。

這項研究的成功也提醒我們,技術進步不一定總是需要革命性的突破,有時候通過深入理解現(xiàn)有技術的局限性和潛力,就能找到令人驚喜的改進方案。正如研究團隊所希望的,這項工作將激發(fā)更多關于高效視覺生成和統(tǒng)一自回歸建模的未來研究。有興趣深入了解的讀者可以通過arXiv:2412.15119v3查詢完整論文,探索更多技術細節(jié)。

Q&A

Q1:PAR技術是如何讓AI圖像生成速度提升這么多的?

A:PAR的核心思想是讓AI在畫面的不同區(qū)域同時工作,而不是像以前那樣必須一個像素接一個像素地依次繪制。它先讓AI確定各個區(qū)域的基本框架,然后在相距較遠、依賴關系較弱的區(qū)域間并行填充細節(jié)。這就像從一個廚師按順序做菜變成多個廚師同時制作不同菜品,速度自然大大提升。

Q2:使用PAR技術生成的圖像質量會下降嗎?

A:幾乎不會。研究顯示,4倍并行版本的圖像質量評估指標FID僅從2.18輕微上升到2.29,肉眼基本看不出差別。即使是更激進的16倍并行版本,質量損失也控制在0.7 FID范圍內。這是因為PAR巧妙地避開了相鄰像素間的強依賴關系,只在相距較遠的區(qū)域間并行處理。

Q3:普通用戶什么時候能用上這種技術?

A:這項技術的最大優(yōu)勢是可以直接集成到現(xiàn)有的AI圖像生成系統(tǒng)中,無需特殊硬件或架構修改。目前該技術已經(jīng)開源,AI公司和開發(fā)者可以相對容易地將其整合到產品中。預計在不久的將來,用戶就能在各種AI圖像生成應用中體驗到明顯的速度提升。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
阿嬌鐘欣潼馬甲線被質疑P圖,英皇公開拍攝花絮,馬甲線清晰可見

阿嬌鐘欣潼馬甲線被質疑P圖,英皇公開拍攝花絮,馬甲線清晰可見

韓小娛
2026-03-14 05:53:16
小楊阿姨不演了!頻繁直播發(fā)動態(tài),薪資超張?zhí)m,戳破馬筱梅謊言

小楊阿姨不演了!頻繁直播發(fā)動態(tài),薪資超張?zhí)m,戳破馬筱梅謊言

蕭佉影視解說
2026-03-12 21:37:27
伊朗今天的災難,是白左當年種下的禍根

伊朗今天的災難,是白左當年種下的禍根

難得君
2026-03-11 00:16:06
鐵了心對付中國?暴跌58%,俄羅斯大幅加稅,中國汽車出口驟降

鐵了心對付中國?暴跌58%,俄羅斯大幅加稅,中國汽車出口驟降

卷史
2026-02-02 12:01:46
全場握拳吶喊不斷!22歲張本智和2個月復仇林昀儒 將PK19歲溫瑞博

全場握拳吶喊不斷!22歲張本智和2個月復仇林昀儒 將PK19歲溫瑞博

風過鄉(xiāng)
2026-03-14 16:59:25
被控受賄500余萬元,安徽一醫(yī)院原黨委書記受審!另有多人被處理

被控受賄500余萬元,安徽一醫(yī)院原黨委書記受審!另有多人被處理

鳳凰網(wǎng)安徽
2026-03-14 16:57:35
俄羅斯對黑瞎子島有新想法,立下了為期3年的“軍令狀”

俄羅斯對黑瞎子島有新想法,立下了為期3年的“軍令狀”

荷蘭豆愛健康
2026-03-14 16:21:47
暴漲千億!向華為交750億“學費”后,曾快破產小廠已成車企第一

暴漲千億!向華為交750億“學費”后,曾快破產小廠已成車企第一

軍機Talk
2026-01-17 14:23:56
苗苗首次公開仨娃情況!3年生仨屬實,鄭愷全程帶娃被夸好爸爸

苗苗首次公開仨娃情況!3年生仨屬實,鄭愷全程帶娃被夸好爸爸

洲洲影視娛評
2026-03-14 17:08:38
這是袁世凱五姨太的真實樣貌,頭發(fā)稀疏并不貌美,但備受寵愛

這是袁世凱五姨太的真實樣貌,頭發(fā)稀疏并不貌美,但備受寵愛

法老不說教
2026-03-12 17:05:24
文壇突發(fā)地震!40位作家身陷抄襲風波,賈平凹蔣方舟等多人被牽連

文壇突發(fā)地震!40位作家身陷抄襲風波,賈平凹蔣方舟等多人被牽連

影像溫度
2026-03-13 15:58:02
一場戰(zhàn)爭逼出一個技術強國烏克蘭

一場戰(zhàn)爭逼出一個技術強國烏克蘭

難得君
2026-03-12 09:28:43
道路擁堵行車緩慢,車主收到“違?!蓖ㄖ?!武昌交警:系正常短信提醒,不會處罰

道路擁堵行車緩慢,車主收到“違停”通知!武昌交警:系正常短信提醒,不會處罰

極目新聞
2026-03-14 14:03:48
中國導彈庫存能撐多久,俄專家斷言:半小時定勝負,背后底氣何在

中國導彈庫存能撐多久,俄專家斷言:半小時定勝負,背后底氣何在

小武侃風云
2026-03-14 02:53:39
與陳夢秘密結婚?排擠樊振東?王楚欽終于為自己的私生活傳聞正名

與陳夢秘密結婚?排擠樊振東?王楚欽終于為自己的私生活傳聞正名

青杉依舊啊啊
2026-03-14 17:31:35
不要再叫喊擊沉美航母了:擊沉一艘航母有多難?你根本看不懂

不要再叫喊擊沉美航母了:擊沉一艘航母有多難?你根本看不懂

起喜電影
2026-03-02 07:35:37
龍湖集團9位高管離職

龍湖集團9位高管離職

地產微資訊
2026-03-14 15:25:04
頑強逆轉韓第一人申真谞九段,1.5目,中國00后金禹丞,贏了!

頑強逆轉韓第一人申真谞九段,1.5目,中國00后金禹丞,贏了!

L76號
2026-03-14 12:57:05
孫穎莎2-4輸蒯曼!世界乒聯(lián)官博遭刷屏:莎莎辛苦啦 主管教練在哪

孫穎莎2-4輸蒯曼!世界乒聯(lián)官博遭刷屏:莎莎辛苦啦 主管教練在哪

風過鄉(xiāng)
2026-03-14 14:42:43
F1上海站沖刺賽:拉塞爾奪冠,法拉利車隊位居二三

F1上海站沖刺賽:拉塞爾奪冠,法拉利車隊位居二三

澎湃新聞
2026-03-14 12:24:27
2026-03-14 18:27:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
7585文章數(shù) 555關注度
往期回顧 全部

科技要聞

xAI創(chuàng)始伙伴只剩兩人!馬斯克“痛改前非”

頭條要聞

伊朗“命根子”遭到中東史上最大轟炸 特朗普表態(tài)

頭條要聞

伊朗“命根子”遭到中東史上最大轟炸 特朗普表態(tài)

體育要聞

NBA唯一巴西球員,增重20KG頂內線

娛樂要聞

張藝興,犯了大忌

財經(jīng)要聞

3·15影子暗訪|神秘的“特供酒”

汽車要聞

吉利銀河M7技術首秀 實力重構主流電混SUV

態(tài)度原創(chuàng)

房產
旅游
本地
公開課
軍事航空

房產要聞

不容易??!??诮K于又要賣地了!

旅游要聞

中東地區(qū)軍事沖突嚴重沖擊意大利旅游業(yè)

本地新聞

坐標北京,過敏季反向遷徒

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普宣布空襲伊石油出口樞紐哈爾克島

無障礙瀏覽 進入關懷版