国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

香港理工大學(xué)團隊讓3D重建AI在考試時"偷看答案"自我進(jìn)化

0
分享至


這項由香港理工大學(xué)領(lǐng)導(dǎo)的研究發(fā)表于2026年4月,以預(yù)印本形式提交至arXiv平臺,論文編號為arXiv:2604.14048v1,題為《Free Geometry: Refining 3D Reconstruction from Longer Versions of Itself》。有興趣深入了解的讀者可以通過該編號在arXiv上查詢完整論文。

當(dāng)你用手機拍一組照片,然后讓AI把這些照片重建成一個完整的三維空間時,你有沒有想過,這個AI其實就像一個從未見過你家的陌生人——它憑借訓(xùn)練時積累的經(jīng)驗猜測你家的樣子,而不是真正"看懂"了你家。這種"憑經(jīng)驗猜"的方式大多數(shù)時候效果不錯,但在遇到光線奇怪、物體被遮擋、或者鏡面反射的地方,AI往往會悄悄犯錯,而你卻毫不知情,因為最終的三維圖像看起來還是挺像那么回事的。

香港理工大學(xué)的研究團隊發(fā)現(xiàn)了這個令人頭疼的問題,并且找到了一個出乎意料的解決方案。他們讓AI在"考試"的時候給自己"開小灶"——通過觀察同一個場景的更多視角來自我糾錯,整個過程不需要人工標(biāo)注任何三維數(shù)據(jù),也不需要重新訓(xùn)練。這套名為**Free Geometry**的框架,本質(zhì)上是一種"測試時自我進(jìn)化"的機制,讓原本僵硬的AI模型在面對新場景時能夠靈活調(diào)整自己,最終在四個公開數(shù)據(jù)集上將相機位姿估計精度平均提升了3.73%,三維點圖預(yù)測精度提升了2.88%。

一、AI的"應(yīng)試綜合征":訓(xùn)練好了就不會改變

要理解這項研究解決了什么問題,先得了解當(dāng)前的3D重建AI是怎么工作的。以VGGT和Depth Anything 3(簡稱DA3)這兩個當(dāng)下最強的3D重建模型為例,它們的工作方式類似于一個經(jīng)歷過大量專業(yè)培訓(xùn)的建筑師——花大量時間學(xué)習(xí)成千上萬個場景,記住各種空間規(guī)律,然后在面對新場景時直接憑記憶"一刀切"地輸出結(jié)果。

這種工作模式有個專業(yè)名稱叫"訓(xùn)練后凍結(jié)"(train-then-freeze):模型一旦訓(xùn)練完畢,參數(shù)就被鎖死,不管遇到什么新場景,都只能用這一套固定方法應(yīng)對。就像一個背熟了教科書的學(xué)生,在考試時遇到書本上沒有出現(xiàn)過的題目,只能用已學(xué)知識硬套,而無法針對新題目進(jìn)行針對性復(fù)習(xí)。

問題的關(guān)鍵在于,現(xiàn)實世界的場景千變?nèi)f化。當(dāng)模型遇到大量鏡面反射的酒店大堂、滿是遮擋的雜亂書房、或者光線詭異的地下停車場時,訓(xùn)練時積累的經(jīng)驗就開始"對不上號"。生成的三維重建結(jié)果乍一看沒什么問題,但仔細(xì)測量就會發(fā)現(xiàn)幾何錯誤,比如墻面稍微歪了一點、物體邊緣出現(xiàn)奇怪的"毛刺"、或者深度估算失準(zhǔn)。

收集大規(guī)模、高質(zhì)量的三維標(biāo)注數(shù)據(jù)是改善這一問題的直接思路,但現(xiàn)實中對真實場景進(jìn)行三維掃描和標(biāo)注極其昂貴,而且很多復(fù)雜環(huán)境根本無法做到。這就好像要讓那個學(xué)生臨時抱佛腳,但找不到針對新考題的參考書。研究團隊因此另辟蹊徑,找到了一個完全"免費"的監(jiān)督信號來源。

二、一個簡單卻關(guān)鍵的發(fā)現(xiàn):看得越多,猜得越準(zhǔn)

研究團隊在探索問題時注意到一個直覺上就說得通的現(xiàn)象:給AI看的照片越多,它重建出來的三維場景就越準(zhǔn)確。這并不令人意外,畢竟多角度觀察一個物體,總比只看一兩張照片更能理解它的真實形狀。

為了量化這一現(xiàn)象,研究團隊做了一個對比實驗,結(jié)果記錄在論文的表1中。他們分別給VGGT模型提供8張圖片和4張圖片,讓它重建同一批場景,然后比較精度。以ETH3D數(shù)據(jù)集(一個包含室內(nèi)外高精度激光掃描參考數(shù)據(jù)的標(biāo)準(zhǔn)測試集)為例,用8張圖片時,相機位姿精度(AUC@3指標(biāo))達(dá)到0.445,三維點云重建的F1分?jǐn)?shù)達(dá)到0.536;而縮減到4張圖片時,AUC@3降到0.318,F(xiàn)1分?jǐn)?shù)降到0.142——差距相當(dāng)顯著。

更有意思的是,他們還做了一個中間實驗:用8張圖片輸入給模型的編碼器(負(fù)責(zé)理解圖片的部分),但只把其中4張的特征傳遞給解碼器(負(fù)責(zé)輸出三維結(jié)果的部分)。這個叫"8→4"的設(shè)置揭示了一件有趣的事:僅僅是在編碼階段多看了4張圖片,最終的重建質(zhì)量就明顯好于純粹只提供4張圖片的情況。在ETH3D上,"8→4"設(shè)置的AUC@3為0.424,遠(yuǎn)高于純4張的0.318。

這個發(fā)現(xiàn)指向了模型內(nèi)部的一個關(guān)鍵結(jié)構(gòu):在VGGT和DA3這類模型中,多視角之間的信息交互發(fā)生在"編碼器"階段,而"解碼器"階段則是每張圖片各自獨立處理的。換句話說,編碼器是這個建筑師團隊開會討論方案的地方,而解碼器則是每個人各自畫圖的地方。更多視角參與討論,自然能做出更準(zhǔn)確的方案。

由此,研究團隊想到了一個絕妙的策略:既然多視角下的編碼器特征更可靠,那能不能用這些"高質(zhì)量特征"來指導(dǎo)少視角下的模型?也就是說,讓多視角的結(jié)果充當(dāng)"老師",教少視角的模型應(yīng)該怎么看這個場景。更妙的是,這個"老師"完全來自同一個模型自身,不需要任何外部標(biāo)注。

三、如何讓AI給自己"批改作業(yè)":Free Geometry的核心機制

Free Geometry的工作原理可以用一個老師批改學(xué)生試卷的場景來理解。給同一道題,當(dāng)學(xué)生手里只有4條線索時(少視角),他的答案可能不夠準(zhǔn)確;但當(dāng)他手里有8條線索時(多視角),答案就更可靠。Free Geometry做的事情是:讓這個學(xué)生在做4線索版本的題目時,參照自己做8線索版本時的思路,強迫自己往更準(zhǔn)確的方向靠近。

具體實現(xiàn)時,研究團隊采用了"老師-學(xué)生"蒸餾框架。面對一組測試圖片(比如8張),他們把所有8張圖片送入一個被凍結(jié)(不允許修改)的模型,提取出"全量觀測特征",這就是老師的答案。然后,他們把其中一半圖片(比如偶數(shù)編號的4張)送入另一個版本的模型,這個版本的模型內(nèi)部插入了輕量級的LoRA模塊(一種只修改模型極少量參數(shù)的技術(shù)),提取出"部分觀測特征",這就是學(xué)生的答案。

LoRA的作用類似于在一本大百科全書的邊角空白處貼便利貼——原來的內(nèi)容一字不改,但通過這些便利貼上的修正注記,可以對原有知識進(jìn)行微調(diào)。研究團隊讓訓(xùn)練過程只更新這些"便利貼"上的參數(shù),以及一個專門負(fù)責(zé)相機姿態(tài)的"相機令牌",其余99.8%以上的模型參數(shù)保持不動。這使得整個自適應(yīng)過程極其高效,在單張RTX Pro 6000 GPU上,每個數(shù)據(jù)集只需不到2分鐘就能完成。

四、兩種"批改方式"讓自我糾錯更徹底

僅僅讓學(xué)生答案向老師答案靠攏,思路上還不夠完善。研究團隊設(shè)計了兩種互補的損失函數(shù),分別從不同角度推動學(xué)生特征向老師特征對齊。

第一種叫"幀內(nèi)一致性損失"。對于那些同時出現(xiàn)在老師和學(xué)生輸入中的圖片(也就是4張未遮擋圖片),直接比較兩個模型在相同位置提取的特征,要求學(xué)生的特征在數(shù)值大小和方向上都盡量向老師靠攏。技術(shù)上結(jié)合了Huber損失(對數(shù)值差異敏感)和余弦相似度損失(對方向差異敏感),這相當(dāng)于要求學(xué)生不僅答題方向要和老師一致,就連具體數(shù)字也要盡量接近。這一項損失主要起"穩(wěn)定錨點"的作用,防止模型在自適應(yīng)過程中亂跑偏。

第二種叫"跨幀關(guān)系損失",設(shè)計上更精妙。那4張被遮擋掉(只有老師看得到、學(xué)生看不到)的圖片,包含了非常寶貴的跨視角幾何關(guān)系信息——它們告訴我們不同位置的場景元素在三維空間里是怎么相對排列的。研究團隊的做法是:在特征空間里,從老師能看到的遮擋幀中選取若干"錨點"特征(K=4個,選法是取余弦相似度最高的2個和最低的2個,兼顧相似和對比),然后構(gòu)建由參考幀特征、遮擋幀錨點特征、其他未遮擋幀特征組成的三元組,在特征空間中形成一個虛擬三角形。要求學(xué)生模型中的對應(yīng)三元組,不僅要保持和老師三元組類似的兩兩相似度分布(通過KL散度衡量),還要保持這個三角形三個頂角的余弦角度(通過L1損失衡量)。

這種設(shè)計的精妙之處在于:即使學(xué)生完全看不到那4張遮擋幀,它依然能通過"幾何關(guān)系約束"間接學(xué)習(xí)到這些幀所蘊含的空間結(jié)構(gòu)信息。打個比方,你雖然沒親眼見過某條小路,但通過朋友描述"從A點到B點,走那條小路比直線多轉(zhuǎn)兩個彎,距離感覺差不多",你也能在腦海里大致重建出那條路和周邊地形的關(guān)系。

最終,這兩種損失的總和構(gòu)成了Free Geometry的自監(jiān)督幾何校準(zhǔn)目標(biāo),整個訓(xùn)練只需在每個測試數(shù)據(jù)集上運行5個輪次,批次大小為4,使用FP16混合精度降低內(nèi)存占用。優(yōu)化器選用AdamW,配合余弦學(xué)習(xí)率衰減和15%的預(yù)熱步驟。不同數(shù)據(jù)集的學(xué)習(xí)率范圍和訓(xùn)練樣本數(shù)各有微調(diào),因為研究團隊發(fā)現(xiàn)不同數(shù)據(jù)集的難易程度差異較大——比如ScanNet++本來就被基礎(chǔ)模型處理得很好,不需要太強的適應(yīng)力度。

五、實驗結(jié)果:小改動,大收益

研究團隊在ETH3D、ScanNet++、7-Scenes和HiRoom四個數(shù)據(jù)集上進(jìn)行了系統(tǒng)評測,覆蓋室內(nèi)外高精度場景、大規(guī)模室內(nèi)場景、小型室內(nèi)重定位場景和高分辨率房間重建四種典型情景。每個場景分別測試4視角和8視角兩種輸入規(guī)模,每種規(guī)模重復(fù)3個隨機種子取平均,確保結(jié)果穩(wěn)定可信。

以相機位姿精度(AUC@3,數(shù)值越高越好)為例,在4視角設(shè)置下,VGGT在ETH3D上從0.157提升到0.178,DA3從0.286提升到0.305;在HiRoom上,VGGT從0.421提升到0.441,DA3從0.708提升到0.719。以三維重建質(zhì)量(F1分?jǐn)?shù),數(shù)值越高越好)為例,4視角下VGGT在ETH3D上從0.102提升到0.110,在HiRoom上從0.276提升到0.307。整體來看,改善最顯著的場景是那些對基礎(chǔ)模型本來就最難的情況——視角少、場景復(fù)雜、光線奇特。

研究團隊還做了一個令人驚喜的跨視角泛化實驗。Free Geometry的訓(xùn)練始終使用"8張全量→4張部分量"這一固定配置,但測試時分別用4、8、16、32、64、100張圖片評估效果。令人稱奇的是,經(jīng)過Free Geometry適應(yīng)后的模型,在所有這些視角數(shù)下都有所提升,而不只是在4視角下有效。相對提升幅度匯總在論文表3中:以VGGT為例,4視角下AUC@3平均提升+5.33%,8視角下提升+2.19%,16視角下提升+3.93%,32視角下提升+3.73%;DA3的規(guī)律類似,4視角下AUC@3提升+2.74%,32視角下提升+2.89%。

這種"一次適應(yīng)、全面受益"的現(xiàn)象說明,F(xiàn)ree Geometry并沒有讓模型死記硬背某個特定視角數(shù)下的答案,而是真正改善了模型理解場景幾何的底層能力——就像學(xué)生通過反復(fù)對照參考答案,不是背下了某道題,而是提升了整體解題思路。

視角越少,提升幅度通常越大;視角越多,提升幅度逐漸趨于平緩。這完全符合直覺:當(dāng)圖片多到足以提供充分幾何約束時,模型本身就已經(jīng)做得很好了,自適應(yīng)的邊際收益自然下降。

六、消融實驗:每個設(shè)計都有其道理

為了驗證各個設(shè)計選擇的必要性,研究團隊做了詳盡的消融實驗。首先是損失函數(shù)的重要性。在ETH3D上,完整損失(Free Geometry)的AUC@3為37.88,F(xiàn)1為0.2475,Chamfer距離為3.5473。單獨去掉幀內(nèi)一致性損失后,AUC@3降至35.87,F(xiàn)1降至0.2324;單獨去掉跨幀關(guān)系損失后,AUC@3降至36.37,F(xiàn)1更是大幅降至0.2190。兩者都是必要的,且跨幀關(guān)系損失對幾何精度的貢獻(xiàn)尤為突出——去掉它之后,F(xiàn)1下降幅度比去掉一致性損失還要大,說明跨幀的結(jié)構(gòu)關(guān)系約束是解決幾何模糊性的關(guān)鍵。

關(guān)于遮擋幀錨點的選取策略,研究團隊對比了三種方案:只選最相似的Top-K個錨點、純隨機選取、以及混合選取(最相似和最不相似各取一半)。結(jié)果混合選取在重建F1(0.2475)和整體Chamfer距離(3.5473)上最優(yōu),純Top選取次之,隨機選取最差。直覺上,只選最相似的錨點會讓約束過于局部,缺乏對比性;隨機選取則過于分散,信號質(zhì)量不穩(wěn)定;而混合策略兼顧了"相似錨點提供對應(yīng)約束"和"不相似錨點提供對比信息"的雙重作用,幾何上的覆蓋面最廣。

關(guān)于LoRA秩的選擇,研究團隊對比了r=8、16、32、64四種規(guī)模。以DA3在ETH3D上為例,基礎(chǔ)模型(不適應(yīng))的AUC@3為0.514;r=8時提升至0.566;r=16時為0.563;r=32時最優(yōu),達(dá)到0.581;r=64時反而降回0.556??捎?xùn)練參數(shù)從基礎(chǔ)模型的0增長到r=8時的531萬、r=32時的2124萬、r=64時的4247萬。適度的適應(yīng)容量(r=32)最優(yōu),過大的參數(shù)量反而帶來過擬合風(fēng)險。研究團隊也直接驗證了Free Geometry的特征校準(zhǔn)效果:在ETH3D上測量部分觀測(4視角)與全量觀測(8視角)下編碼器特征的距離,適應(yīng)前VGGT的MSE為0.9039、余弦相似度為0.8581;適應(yīng)后MSE降至0.8384、余弦相似度升至0.8684。DA3的變化規(guī)律完全一致,從45.9079/0.8605變?yōu)?2.8949/0.8679。這組數(shù)字直接證明了Free Geometry確實讓模型在少視角下的內(nèi)部特征更接近多視角下的高質(zhì)量表示。

七、與其他方法有何不同:不對稱才是關(guān)鍵

研究團隊在設(shè)計Free Geometry時,特別注意與已有測試時自適應(yīng)方法的本質(zhì)區(qū)別。

在通用視覺領(lǐng)域,TENT通過最小化預(yù)測熵來適應(yīng),TTT/TTT++通過旋轉(zhuǎn)預(yù)測等輔助任務(wù)來更新表示,MEMO通過數(shù)據(jù)增強一致性進(jìn)行單樣本適應(yīng)。這些方法的共同問題是:監(jiān)督信號的質(zhì)量不受控制——熵可能很嘈雜,旋轉(zhuǎn)預(yù)測與三維幾何任務(wù)耦合松散。

在三維重建領(lǐng)域,Test3R是最接近的相關(guān)工作,它通過強制不同重疊視角對之間的輸出一致性進(jìn)行適應(yīng)。然而Test3R對所有視角對一視同仁,沒有質(zhì)量區(qū)分:當(dāng)某對視角重建質(zhì)量好、另一對質(zhì)量差時,一致性損失會把兩者都往平均值方向拉,存在"被拖累"的風(fēng)險。Free Geometry的本質(zhì)區(qū)別在于,全量觀測相對于部分觀測的優(yōu)越性是被模型架構(gòu)中的全局注意力機制在數(shù)學(xué)上保證的,而非人為假設(shè)——這提供了一個有明確質(zhì)量層級的監(jiān)督信號,老師永遠(yuǎn)比學(xué)生更可靠。此外,F(xiàn)ree Geometry在編碼器特征層面操作,而不是在解碼器輸出層面操作,直接針對跨視角一致性的瓶頸所在,同時避免了運行解碼器所需的額外計算和內(nèi)存開銷。

說到底,F(xiàn)ree Geometry的貢獻(xiàn)在于找到了一種"不花錢的好老師"——這位老師就藏在模型自身里,只要給它更多視角,它就能自動變得更聰明,然后把這份聰明教給面對較少視角時的自己。這套邏輯簡單卻有效,實驗數(shù)據(jù)也清晰地支撐了這一點。對于未來的3D重建應(yīng)用,這意味著即使沒有專業(yè)的三維標(biāo)注團隊,只要有足夠多的原始照片,模型就有機會在推理階段針對具體場景進(jìn)行自我優(yōu)化,讓錯誤更少、幾何更準(zhǔn)。當(dāng)然,目前這套方法還需要在每個數(shù)據(jù)集上單獨運行一次適應(yīng)過程,未來如何做到更精細(xì)的單場景實時適應(yīng),以及在更極端條件下(如視角極少或場景極復(fù)雜)的表現(xiàn),都值得進(jìn)一步探索。對AI三維感知感興趣的讀者,可以通過arXiv編號2604.14048查閱完整論文,研究團隊也已在GitHub開源了代碼,地址指向hiteacherIamhumble/Free-Geometry倉庫。

Q&A

Q1:Free Geometry需要人工標(biāo)注三維數(shù)據(jù)嗎?

A:Free Geometry完全不需要任何人工標(biāo)注的三維數(shù)據(jù)。它的自監(jiān)督信號完全來自模型自身——通過對比同一個場景在"多視角輸入"和"少視角輸入"下的內(nèi)部特征差異,讓模型自己糾正自己。整個適應(yīng)過程只需要原始圖片序列,在單張GPU上不到2分鐘就能完成。

Q2:Free Geometry適應(yīng)之后,模型對視角數(shù)量有限制嗎?

A:沒有明顯限制。雖然Free Geometry訓(xùn)練時固定使用8張全量輸入對應(yīng)4張部分量輸入的配置,但適應(yīng)后的模型在4、8、16、32、64、100張圖片輸入下都能獲得改善,說明它提升的是模型底層的幾何理解能力,而不是針對某個特定視角數(shù)的記憶。視角越少時,改善幅度通常越明顯。

Q3:Free Geometry支持哪些3D重建模型?

A:Free Geometry是一個插件式框架,理論上可以兼容任何具有"多視角交叉注意力編碼器+逐幀解碼器"結(jié)構(gòu)的前饋三維重建模型。論文中已在VGGT和Depth Anything 3兩個當(dāng)前最強的三維重建基礎(chǔ)模型上驗證了有效性,兩者均獲得了一致的提升。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
國家下死命令:2027年城投清零!中小城市的公交、供水會漲價嗎?

國家下死命令:2027年城投清零!中小城市的公交、供水會漲價嗎?

顧史
2026-04-21 05:44:11
法塔赫勝選、哈馬斯出局,殘害平民失去人心,恐怖主義沒有未來

法塔赫勝選、哈馬斯出局,殘害平民失去人心,恐怖主義沒有未來

壹家言
2026-04-28 11:11:27
王洪文被捕前,對秘書說:我這頂“烏紗帽”,說不定哪天就被摘掉

王洪文被捕前,對秘書說:我這頂“烏紗帽”,說不定哪天就被摘掉

銅臭的歷史味
2026-04-29 00:22:02
哭窮了!一線男1號片酬跌至巔峰期3折,網(wǎng)友:待遇比醫(yī)生差才合理

哭窮了!一線男1號片酬跌至巔峰期3折,網(wǎng)友:待遇比醫(yī)生差才合理

火山詩話
2026-04-28 07:27:33
600678,將被“ST”!

600678,將被“ST”!

中國基金報
2026-04-28 23:15:48
情侶在瑞士雪山頂“撒歡”,就這么被全世界直播了···

情侶在瑞士雪山頂“撒歡”,就這么被全世界直播了···

新歐洲
2026-04-21 19:37:05
外交部:按一國兩制叫“臺灣特別行政區(qū)行政長官”“臺灣省省長”

外交部:按一國兩制叫“臺灣特別行政區(qū)行政長官”“臺灣省省長”

阿七說史
2026-04-28 15:41:47
辛柏青回應(yīng)吳越撮合,沒有翻臉沒有接梗,把分寸和家人穩(wěn)穩(wěn)守住

辛柏青回應(yīng)吳越撮合,沒有翻臉沒有接梗,把分寸和家人穩(wěn)穩(wěn)守住

一盅情懷
2026-04-28 17:18:29
妹子,你露個大白胸脯,在這兒干什么呢?

妹子,你露個大白胸脯,在這兒干什么呢?

飛娛日記
2026-04-18 10:48:09
中國聯(lián)通推出全新手機套餐品牌“魔方”,自由組合,階梯定價,39元起

中國聯(lián)通推出全新手機套餐品牌“魔方”,自由組合,階梯定價,39元起

TMT流程審計
2026-04-28 10:35:38
誰敢相信!去年跟腱撕裂,今年滿血回歸,季后賽場均24分

誰敢相信!去年跟腱撕裂,今年滿血回歸,季后賽場均24分

球毛鬼胎
2026-04-28 22:07:08
張雪就聲援余承東引發(fā)爭議進(jìn)行回應(yīng),稱自己不是網(wǎng)紅也不靠這吃飯

張雪就聲援余承東引發(fā)爭議進(jìn)行回應(yīng),稱自己不是網(wǎng)紅也不靠這吃飯

IT之家
2026-04-28 16:13:50
政治局會議,傳遞三重利好

政治局會議,傳遞三重利好

劉勝軍經(jīng)濟學(xué)大局觀
2026-04-28 15:41:45
美伊大戰(zhàn)暴露了中國家底,美國這才明白,為啥中國人底氣能這么足

美伊大戰(zhàn)暴露了中國家底,美國這才明白,為啥中國人底氣能這么足

觸摸史跡
2026-04-28 15:13:05
世乒賽戰(zhàn)況:杜凱琹獨砍兩分,朱雨玲澳隊剃光頭國乒大戰(zhàn)韓隊

世乒賽戰(zhàn)況:杜凱琹獨砍兩分,朱雨玲澳隊剃光頭國乒大戰(zhàn)韓隊

阿晞體育
2026-04-28 22:41:00
王思聰是真頹了?被拍到在洛杉磯,整個人都“垮了”

王思聰是真頹了?被拍到在洛杉磯,整個人都“垮了”

西樓知趣雜談
2026-04-28 22:09:13
誰拍下了那張后臺照片?

誰拍下了那張后臺照片?

追星雷達(dá)站
2026-04-27 09:58:59
43歲蔡卓妍官宣結(jié)婚,婚戒照好幸福,老公比她小10歲是健身教練

43歲蔡卓妍官宣結(jié)婚,婚戒照好幸福,老公比她小10歲是健身教練

扒蝦侃娛
2026-04-28 12:34:53
倒查13年,央國企開始慌了

倒查13年,央國企開始慌了

職場資深秘書
2026-04-28 22:06:07
聚焦服務(wù)業(yè)擴能提質(zhì)|我國養(yǎng)老服務(wù)業(yè)發(fā)展邁出新步伐

聚焦服務(wù)業(yè)擴能提質(zhì)|我國養(yǎng)老服務(wù)業(yè)發(fā)展邁出新步伐

新華社
2026-04-27 22:04:28
2026-04-29 03:20:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8183文章數(shù) 563關(guān)注度
往期回顧 全部

科技要聞

10億周活目標(biāo)落空!傳OpenAI爆發(fā)內(nèi)部分歧

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

頭條要聞

19歲中國女孩被困緬甸 交20萬贖金園區(qū)仍未放人

體育要聞

魔術(shù)黑八活塞,一步之遙?!

娛樂要聞

蔡卓妍官宣結(jié)婚,老公比她小10歲

財經(jīng)要聞

中央政治局會議定調(diào),八大看點速覽!

汽車要聞

拒絕瘋狂套娃!現(xiàn)代艾尼氪金星長在未來審美點上

態(tài)度原創(chuàng)

游戲
教育
本地
房產(chǎn)
軍事航空

這不爽翻了?曝PS6或能穩(wěn)穩(wěn)運行60幀+光追的游戲畫面

教育要聞

教育部通知,今年9月份開始,上學(xué)的規(guī)則全變了

本地新聞

用青花瓷的方式,打開西溪濕地

房產(chǎn)要聞

紅利爆發(fā)!海南,沖到全國人口增量第4??!

軍事要聞

德國總理默茨:美國正遭受伊朗領(lǐng)導(dǎo)層的羞辱

無障礙瀏覽 進(jìn)入關(guān)懷版