国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

新加坡南洋理工大學(xué)突破:讓AI看圖速度提升28倍的"分層觀察法"

0
分享至


這項(xiàng)由新加坡南洋理工大學(xué)S-Lab實(shí)驗(yàn)室的周一凡、肖澤琦、魏天逸、潘新鋼團(tuán)隊(duì),以及北京大學(xué)王選計(jì)算機(jī)研究所楊帥共同完成的研究,于2025年12月18日發(fā)表在arXiv預(yù)印本平臺,論文編號為arXiv:2512.16615v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。

當(dāng)我們看一幅畫時,眼睛不會同時關(guān)注畫面的每個細(xì)節(jié)。相反,我們會先整體掃視,然后聚焦在最重要的部分。現(xiàn)在,人工智能也學(xué)會了這種"聰明的觀察方式"。研究團(tuán)隊(duì)開發(fā)了一種叫做"對數(shù)線性稀疏注意力"的新技術(shù),讓AI在處理圖像時變得更加高效。

傳統(tǒng)的AI圖像生成模型就像一個需要同時觀察每個像素點(diǎn)的"完美主義者"。當(dāng)圖像尺寸增大時,這種全面觀察的方式會讓計(jì)算量呈指數(shù)級增長。舉個例子,如果原來處理一張64×64像素的圖片需要1秒,那么處理256×256像素的圖片就可能需要16倍的時間。這就像一個人試圖同時記住房間里每一個物品的位置和每兩個物品之間的關(guān)系一樣,隨著物品數(shù)量增加,這種全面記憶的難度會急劇上升。

研究團(tuán)隊(duì)的創(chuàng)新在于模仿了人類視覺系統(tǒng)的工作原理。他們設(shè)計(jì)了一種"分層觀察"的方法,就像我們看地圖一樣——先看整個城市的輪廓,再看具體的街區(qū),最后關(guān)注具體的建筑物。AI首先對圖像進(jìn)行粗略觀察,識別出最重要的區(qū)域,然后逐步細(xì)化到具體細(xì)節(jié)。這種方法將計(jì)算復(fù)雜度從平方級降低到了對數(shù)線性級,意味著處理時間的增長速度大幅減緩。

這項(xiàng)技術(shù)的實(shí)際效果令人印象深刻。在處理256×256像素的圖像時,新方法讓注意力推理速度提升了28.27倍,整體訓(xùn)練速度提升了6.09倍,同時保持了圖像生成的質(zhì)量。這相當(dāng)于原來需要一小時完成的工作,現(xiàn)在只需要不到三分鐘。

一、傳統(tǒng)方法的困境:全面觀察的代價

要理解這項(xiàng)研究的重要性,我們首先需要了解當(dāng)前AI圖像生成面臨的核心挑戰(zhàn)?,F(xiàn)代的圖像生成模型,特別是擴(kuò)散Transformer模型,已經(jīng)成為視覺生成領(lǐng)域的佼佼者。這些模型能夠生成令人驚艷的高質(zhì)量圖像,但它們有一個致命的弱點(diǎn):對計(jì)算資源的巨大需求。

這個問題的根源在于"自注意力"機(jī)制的工作方式。自注意力就像一個極度認(rèn)真的觀察員,需要考慮圖像中每個像素點(diǎn)與其他所有像素點(diǎn)之間的關(guān)系。當(dāng)圖像尺寸為N×N像素時,需要進(jìn)行的比較次數(shù)是N的平方。這意味著圖像尺寸每增加一倍,計(jì)算量就會增加四倍。

以目前流行的圖像生成模型為例,F(xiàn)LUX模型處理的是64×64的潛在圖像(相當(dāng)于4096個標(biāo)記),而Wan 2.1處理的視頻序列包含75600個標(biāo)記。當(dāng)我們想要生成更高分辨率的圖像或更長的視頻時,這種平方級的復(fù)雜度增長就成了不可逾越的障礙。

現(xiàn)有的稀疏注意力方法試圖通過只關(guān)注最重要的K個區(qū)域來解決這個問題。這種方法分為三個步驟:首先將查詢和鍵標(biāo)記壓縮成粗略表示,然后計(jì)算壓縮標(biāo)記之間的相似度分?jǐn)?shù)并選擇前K個關(guān)鍵塊,最后在選定的塊上執(zhí)行稀疏注意力。然而,這種單層設(shè)計(jì)仍然存在兩個根本性問題:選擇階段的計(jì)算成本仍然是平方級的,而且為了保持全局上下文,需要隨著序列長度的增加而使用更大的K值。

二、仿生靈感:學(xué)習(xí)人類的觀察智慧

研究團(tuán)隊(duì)從人類視覺系統(tǒng)中獲得了靈感。當(dāng)我們觀察復(fù)雜場景時,大腦不會試圖同時處理所有細(xì)節(jié)。相反,我們采用了一種層次化的處理策略:首先獲取整體印象,然后逐步聚焦到感興趣的區(qū)域,最后處理具體細(xì)節(jié)。

這種觀察方式的優(yōu)勢在于效率。通過在不同抽象層次上組織信息,我們能夠用相對較少的計(jì)算資源處理復(fù)雜的視覺信息。大腦皮層的視覺處理區(qū)域就是按照這種層次化結(jié)構(gòu)組織的,從V1區(qū)域的簡單邊緣檢測到高級視覺區(qū)域的復(fù)雜對象識別。

基于這種仿生理念,研究團(tuán)隊(duì)設(shè)計(jì)了對數(shù)線性稀疏注意力機(jī)制。這種方法將單層的全面觀察擴(kuò)展為多層的層次化觀察。在最粗糙的層次上,AI獲得圖像的整體結(jié)構(gòu)信息;在中等層次上,它識別重要的區(qū)域和模式;在最精細(xì)的層次上,它處理具體的細(xì)節(jié)。

層次化的關(guān)鍵在于每個層次使用的抽象程度不同。就像地圖有不同的縮放級別一樣,最粗糙的層次可能將16×16個像素壓縮為一個代表性特征,中等層次可能是4×4,而最精細(xì)的層次則保持原始像素的分辨率。這種設(shè)計(jì)使得AI能夠用對數(shù)級的計(jì)算量獲得原本需要平方級計(jì)算才能獲得的全局信息。

三、技術(shù)核心:分層選擇與信息增強(qiáng)

對數(shù)線性稀疏注意力的核心創(chuàng)新體現(xiàn)在兩個關(guān)鍵技術(shù)上:層次化Top-K選擇和層次化鍵值增強(qiáng)機(jī)制。

層次化Top-K選擇過程就像一個逐步細(xì)化的篩選系統(tǒng)。在最粗糙的層次上,系統(tǒng)首先計(jì)算所有粗粒度標(biāo)記之間的相似度,并選擇最相關(guān)的K個區(qū)域。然后,在下一個更精細(xì)的層次上,系統(tǒng)只在這K個已選區(qū)域內(nèi)進(jìn)行進(jìn)一步的篩選,而不是重新考慮整個圖像空間。這種遞歸式的選擇過程繼續(xù)下去,直到達(dá)到最精細(xì)的層次。

這種方法的巧妙之處在于它將原本需要在整個N×N空間中進(jìn)行的搜索,轉(zhuǎn)化為在多個較小空間中的搜索。數(shù)學(xué)分析表明,這種層次化選擇將選擇階段的復(fù)雜度從O(N?)降低到了O(N),實(shí)現(xiàn)了根本性的效率提升。

然而,單純的層次化選擇可能會丟失重要的全局信息。為了解決這個問題,研究團(tuán)隊(duì)引入了層次化鍵值增強(qiáng)機(jī)制。這種機(jī)制的工作原理類似于一個智能的信息匯總系統(tǒng)。在最終的注意力計(jì)算中,系統(tǒng)不僅使用最精細(xì)層次選擇的鍵值對,還會包含從各個粗糙層次收集的代表性信息。

鍵值重加權(quán)是這個機(jī)制中的一個重要細(xì)節(jié)。由于不同層次的標(biāo)記代表不同數(shù)量的原始像素信息,系統(tǒng)需要相應(yīng)地調(diào)整它們的重要性權(quán)重。一個代表16個像素的粗糙標(biāo)記應(yīng)該比一個代表單個像素的精細(xì)標(biāo)記具有更高的權(quán)重。具體來說,權(quán)重設(shè)置為該層次的塊大小,確保信息的重要性與其代表的內(nèi)容量成正比。

四、工程實(shí)現(xiàn):高效的GPU計(jì)算方案

理論上的優(yōu)勢需要通過高效的實(shí)現(xiàn)才能轉(zhuǎn)化為實(shí)際的性能提升。研究團(tuán)隊(duì)在GPU實(shí)現(xiàn)方面也進(jìn)行了重要創(chuàng)新,特別是在稀疏索引的處理上。

傳統(tǒng)的稀疏注意力實(shí)現(xiàn)通常使用二進(jìn)制掩碼來標(biāo)記哪些位置需要計(jì)算,哪些可以跳過。然而,構(gòu)建和處理這種掩碼本身就需要二次方的內(nèi)存和計(jì)算開銷,這與稀疏化的初衷背道而馳。

研究團(tuán)隊(duì)開發(fā)了一種直接操作稀疏索引的方法。在前向傳播過程中,系統(tǒng)直接收集選中的鍵塊,而不是構(gòu)建完整的掩碼矩陣。在反向傳播過程中,他們實(shí)現(xiàn)了一個輕量級的稀疏索引轉(zhuǎn)置內(nèi)核,能夠動態(tài)計(jì)算稀疏索引的反向查找,避免了密集掩碼的構(gòu)建。

這種稀疏索引轉(zhuǎn)置算法基于經(jīng)典的CSR到CSC稀疏矩陣轉(zhuǎn)置方法。算法的核心思想是將所有相關(guān)查詢的索引保存在一個扁平向量中,并使用累積偏移來獲取每個鍵的查詢范圍。雖然這個過程需要原子加法操作,但由于選擇的鍵數(shù)量K相對較小,原子操作在內(nèi)存中稀疏分布,沖突概率極低,因此開銷可以忽略不計(jì)。

為了適應(yīng)二維視覺數(shù)據(jù),研究團(tuán)隊(duì)還引入了索引重排序方案。傳統(tǒng)的光柵掃描順序不能有效地在一維池化過程中聚集相似像素,而索引重排序確??臻g相鄰的像素在扁平化序列中也保持鄰近關(guān)系。這種重排序類似于Z-order曲線或希爾伯特曲線的思想,保持了空間局部性。

五、驗(yàn)證與評估:從理論到實(shí)踐的飛躍

為了全面驗(yàn)證新方法的有效性,研究團(tuán)隊(duì)設(shè)計(jì)了一系列嚴(yán)格的實(shí)驗(yàn)。他們選擇了像素空間的圖像生成作為測試場景,這是一個特別具有挑戰(zhàn)性的任務(wù),因?yàn)樗皇褂萌魏螆D像壓縮或編碼技術(shù),直接在原始像素級別進(jìn)行操作。

實(shí)驗(yàn)設(shè)置覆蓋了從128×128到512×512像素的多種分辨率,使用FFHQ和ImageNet數(shù)據(jù)集。在128×128的FFHQ數(shù)據(jù)集上,與傳統(tǒng)的Top-K稀疏注意力方法相比,對數(shù)線性稀疏注意力在僅使用K=8的情況下,就超越了使用K=32的基線方法。這個結(jié)果特別令人印象深刻,因?yàn)樗砻鲗哟位I值增強(qiáng)機(jī)制確實(shí)能夠用更少的計(jì)算資源保持更好的全局上下文。

在訓(xùn)練效率方面,新方法在256×256像素序列上實(shí)現(xiàn)了6.09倍的訓(xùn)練加速,同時保持了生成質(zhì)量。這種加速不僅來自于理論復(fù)雜度的降低,也得益于高效的GPU實(shí)現(xiàn)。反向傳播內(nèi)核在不同序列長度下保持了近乎恒定的吞吐量,證實(shí)了線性復(fù)雜度的實(shí)際實(shí)現(xiàn)。

消融研究揭示了各個組件的重要性。單獨(dú)使用Top-K注意力難以匹配完整注意力的性能,F(xiàn)ID分?jǐn)?shù)從24.91上升到28.21。啟用鍵值增強(qiáng)后,性能顯著改善,F(xiàn)ID降低到26.09。正確設(shè)置粗糙標(biāo)記的重要性權(quán)重進(jìn)一步提升了模型質(zhì)量,F(xiàn)ID達(dá)到24.18,甚至略優(yōu)于完整注意力基線。

與其他稀疏注意力方法的比較顯示,對數(shù)線性稀疏注意力在相同有效標(biāo)記數(shù)量下,始終獲得最佳的FID分?jǐn)?shù)和最高的訓(xùn)練吞吐量。這種優(yōu)勢在不同分辨率下都保持一致,證明了方法的魯棒性和通用性。

六、實(shí)際應(yīng)用:從實(shí)驗(yàn)室到現(xiàn)實(shí)世界

研究團(tuán)隊(duì)還將這項(xiàng)技術(shù)集成到了PixelFlow模型中,在ImageNet-256數(shù)據(jù)集上進(jìn)行了大規(guī)模驗(yàn)證。PixelFlow是一個多階段像素?cái)U(kuò)散模型,能夠?qū)⒌头直媛蕡D像逐步上采樣到高分辨率。在這個更具挑戰(zhàn)性的場景中,對數(shù)線性稀疏注意力再次展現(xiàn)了其優(yōu)勢,在FID和Inception Score兩個關(guān)鍵指標(biāo)上都優(yōu)于現(xiàn)有的稀疏注意力方法。

特別值得注意的是,這項(xiàng)技術(shù)在處理真正長序列時的表現(xiàn)。在512×512像素的圖像生成任務(wù)中,單層設(shè)計(jì)的稀疏注意力由于二次方選擇成本而無法在合理時間內(nèi)收斂,而層次化設(shè)計(jì)顯著提升了訓(xùn)練吞吐量,并且隨著層次數(shù)量的增加,性能進(jìn)一步改善。

噪聲重縮放技術(shù)也為像素空間訓(xùn)練做出了重要貢獻(xiàn)。通過調(diào)整噪聲強(qiáng)度而不是輸入縮放,研究團(tuán)隊(duì)能夠在不同分辨率下保持一致的信噪比,大大加速了高分辨率模型的收斂。這種方法比傳統(tǒng)的時間步偏移或?qū)?shù)正態(tài)采樣器更加有效。

索引重排序的引入進(jìn)一步優(yōu)化了二維視覺數(shù)據(jù)的處理。實(shí)驗(yàn)顯示,使用空間連貫的索引排序比默認(rèn)的光柵掃描排序能獲得更好的生成質(zhì)量,證明了空間局部性在稀疏注意力中的重要作用。

七、技術(shù)影響:開啟高效AI視覺的新時代

這項(xiàng)研究的意義遠(yuǎn)超技術(shù)層面的創(chuàng)新,它為AI視覺生成領(lǐng)域帶來了范式轉(zhuǎn)變。傳統(tǒng)上,高質(zhì)量的圖像生成需要在計(jì)算效率和生成質(zhì)量之間做出妥協(xié)。研究團(tuán)隊(duì)證明了通過巧妙的算法設(shè)計(jì),可以同時實(shí)現(xiàn)兩者的優(yōu)化。

從計(jì)算復(fù)雜度的角度看,從O(N?)到O(N log N)的降低是質(zhì)的飛躍。這意味著處理序列長度翻倍時,計(jì)算時間的增長從四倍降低到了略多于兩倍。對于實(shí)際應(yīng)用而言,這種改進(jìn)使得在消費(fèi)級硬件上生成高分辨率內(nèi)容成為可能。

該技術(shù)的模塊化設(shè)計(jì)也為進(jìn)一步的創(chuàng)新奠定了基礎(chǔ)。層次化注意力的思想可以擴(kuò)展到其他類型的序列建模任務(wù),不僅限于圖像生成。視頻生成、文檔處理、音頻合成等領(lǐng)域都可能從這種方法中受益。

從工程實(shí)踐的角度看,高效的GPU實(shí)現(xiàn)證明了理論優(yōu)勢可以轉(zhuǎn)化為實(shí)際的性能提升。稀疏索引的直接操作避免了傳統(tǒng)掩碼方法的開銷,為大規(guī)模稀疏計(jì)算提供了新的實(shí)現(xiàn)范式。

說到底,這項(xiàng)研究展現(xiàn)了仿生學(xué)在人工智能領(lǐng)域的巨大潛力。通過學(xué)習(xí)人類視覺系統(tǒng)的層次化處理策略,AI系統(tǒng)不僅變得更加高效,也更加符合自然智能的工作原理。這種從生物系統(tǒng)中汲取靈感的做法,為未來的AI算法設(shè)計(jì)提供了重要的指導(dǎo)方向。

歸根結(jié)底,對數(shù)線性稀疏注意力技術(shù)的成功證明了一個重要觀點(diǎn):在AI發(fā)展中,效率和質(zhì)量不是非此即彼的選擇,而是可以通過創(chuàng)新的算法設(shè)計(jì)同時實(shí)現(xiàn)的目標(biāo)。隨著這項(xiàng)技術(shù)的進(jìn)一步完善和推廣,我們有理由期待更加高效、強(qiáng)大的AI視覺生成系統(tǒng),它們將為創(chuàng)意產(chǎn)業(yè)、教育、娛樂等眾多領(lǐng)域帶來革命性的變化。對于那些希望深入了解技術(shù)細(xì)節(jié)的讀者,可以通過論文編號arXiv:2512.16615v1查詢完整的研究內(nèi)容。

Q&A

Q1:對數(shù)線性稀疏注意力是什么原理?

A:這是一種模仿人類視覺觀察方式的AI技術(shù)。就像我們看地圖時先看整體輪廓,再看街區(qū),最后關(guān)注具體建筑一樣,AI先粗略觀察圖像整體,再逐步細(xì)化到具體細(xì)節(jié)。這種分層觀察方式將計(jì)算復(fù)雜度從平方級降低到對數(shù)線性級,大幅提升了處理效率。

Q2:這項(xiàng)技術(shù)能帶來多大的性能提升?

A:在處理256×256像素圖像時,新方法讓注意力推理速度提升了28.27倍,整體訓(xùn)練速度提升了6.09倍,同時保持圖像生成質(zhì)量不變。這相當(dāng)于原來需要一小時的工作現(xiàn)在只需要不到三分鐘就能完成。

Q3:這種技術(shù)何時能應(yīng)用到實(shí)際產(chǎn)品中?

A:研究團(tuán)隊(duì)已經(jīng)在像素空間圖像生成和PixelFlow等實(shí)際模型中驗(yàn)證了技術(shù)效果,并開發(fā)了高效的GPU實(shí)現(xiàn)方案。目前技術(shù)已經(jīng)比較成熟,預(yù)計(jì)很快就能集成到商業(yè)化的AI圖像生成產(chǎn)品中,讓普通用戶也能享受到更快速的AI圖像生成服務(wù)。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
DeepSeek 要發(fā)大招了,梁文鋒署名新論文!暴力優(yōu)化AI架構(gòu)

DeepSeek 要發(fā)大招了,梁文鋒署名新論文!暴力優(yōu)化AI架構(gòu)

新智元
2026-01-01 18:32:23
小S發(fā)跨年照紀(jì)念大S,對比去年的跨年照不止少了一個人

小S發(fā)跨年照紀(jì)念大S,對比去年的跨年照不止少了一個人

并不擅長圈粉的鐵任
2026-01-01 17:57:04
用黑熊和獅子處理尸體?泰國陸戰(zhàn)隊(duì)攻入柬埔寨賭場后,網(wǎng)友不淡定

用黑熊和獅子處理尸體?泰國陸戰(zhàn)隊(duì)攻入柬埔寨賭場后,網(wǎng)友不淡定

華人星光
2025-12-30 11:50:42
蔣介石晚年評價朱德:他最大的本事,就是讓人永遠(yuǎn)看不出他的本事

蔣介石晚年評價朱德:他最大的本事,就是讓人永遠(yuǎn)看不出他的本事

史之銘
2025-12-31 03:37:21
“天安門墻體畫”讓河南吳營村爆火:新年第一天進(jìn)村車輛排長隊(duì),游客排隊(duì)半小時才看到“天安門”,不少老人來此圓夢

“天安門墻體畫”讓河南吳營村爆火:新年第一天進(jìn)村車輛排長隊(duì),游客排隊(duì)半小時才看到“天安門”,不少老人來此圓夢

極目新聞
2026-01-01 18:17:17
39歲的魯能功勛門神決定提前退役!老東家官宣確認(rèn),將進(jìn)管理層

39歲的魯能功勛門神決定提前退役!老東家官宣確認(rèn),將進(jìn)管理層

安???/span>
2026-01-01 17:05:12
白嫖攝影師后續(xù):單位傳開已社死,朋友曝更多,白嫖只是冰山一角

白嫖攝影師后續(xù):單位傳開已社死,朋友曝更多,白嫖只是冰山一角

快樂彼岸
2026-01-01 17:43:54
以色列已經(jīng)告訴世界:日本若敢擁有核武器,美國并不會第一個翻臉

以色列已經(jīng)告訴世界:日本若敢擁有核武器,美國并不會第一個翻臉

八斗小先生
2025-12-26 09:33:27
卷走53億!又一大佬帶全家跑路,欠中國銀行20億,投資者血本無歸

卷走53億!又一大佬帶全家跑路,欠中國銀行20億,投資者血本無歸

以茶帶書
2025-12-09 23:33:58
蔡磊,悟空|面孔

蔡磊,悟空|面孔

大象新聞
2025-11-24 09:50:11
李現(xiàn)被曝與李一桐戀情!楊紫劉亦菲都錯了,這才是他的真命天女

李現(xiàn)被曝與李一桐戀情!楊紫劉亦菲都錯了,這才是他的真命天女

黃小仙的搞笑視頻
2025-12-10 16:50:52
確認(rèn)了,是江蘇籍女演員白鹿

確認(rèn)了,是江蘇籍女演員白鹿

最江陰
2025-12-30 15:10:28
廣東狂輸31分揪出最大毒瘤!三節(jié)運(yùn)動戰(zhàn)0分+罰球不中,在場輸36分

廣東狂輸31分揪出最大毒瘤!三節(jié)運(yùn)動戰(zhàn)0分+罰球不中,在場輸36分

南海浪花
2026-01-01 22:10:43
兩次拒絕黎明,無視鐘漢良示愛,被折磨20年后55歲的她憔悴成大媽

兩次拒絕黎明,無視鐘漢良示愛,被折磨20年后55歲的她憔悴成大媽

輝哥愛生活
2025-12-31 22:49:50
姜昆風(fēng)波持續(xù)發(fā)酵,洛杉磯鄰居紛紛出面,更多偶遇照又被扒出啦

姜昆風(fēng)波持續(xù)發(fā)酵,洛杉磯鄰居紛紛出面,更多偶遇照又被扒出啦

振華觀史
2025-12-31 09:33:49
被處決毒梟要水喝,3停5口是17年前教的暗號:我是臥底,有內(nèi)鬼!

被處決毒梟要水喝,3停5口是17年前教的暗號:我是臥底,有內(nèi)鬼!

星宇共鳴
2025-12-29 09:56:33
U23國足0-1伊朗!頭球自擺烏龍 1勝1負(fù)結(jié)束熱身7天后亞洲杯首戰(zhàn)

U23國足0-1伊朗!頭球自擺烏龍 1勝1負(fù)結(jié)束熱身7天后亞洲杯首戰(zhàn)

我愛英超
2026-01-01 22:59:28
姜昆不忍了。公開回應(yīng)美國豪宅過圣誕真相,暴露一個小圈子的惡俗

姜昆不忍了。公開回應(yīng)美國豪宅過圣誕真相,暴露一個小圈子的惡俗

好叫好伐
2026-01-01 21:31:08
輸給拜仁,穆里尼奧和助教抱頭痛哭

輸給拜仁,穆里尼奧和助教抱頭痛哭

體壇周報
2026-01-01 13:07:10
被停職審查、轉(zhuǎn)移格力資產(chǎn)、搞辦公室戀情,董明珠身上謠言太離譜

被停職審查、轉(zhuǎn)移格力資產(chǎn)、搞辦公室戀情,董明珠身上謠言太離譜

星星沒有你亮
2025-12-30 20:57:58
2026-01-02 03:36:49
至頂AI實(shí)驗(yàn)室 incentive-icons
至頂AI實(shí)驗(yàn)室
一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實(shí)驗(yàn)室。
896文章數(shù) 151關(guān)注度
往期回顧 全部

科技要聞

特斯拉Model 3車主首度全程自駕橫穿美國

頭條要聞

瑞士酒吧新年爆炸致百余死傷 有人嚴(yán)重?zé)齻y以辨認(rèn)

頭條要聞

瑞士酒吧新年爆炸致百余死傷 有人嚴(yán)重?zé)齻y以辨認(rèn)

體育要聞

2026,這些英超紀(jì)錄可能會被打破

娛樂要聞

跑調(diào)風(fēng)波越演越烈!沈佳潤被網(wǎng)友喊話

財(cái)經(jīng)要聞

巴菲特「身退,權(quán)還在」

汽車要聞

一汽-大眾2025年整車銷量超158萬輛 燃油車市占率創(chuàng)新高

態(tài)度原創(chuàng)

數(shù)碼
時尚
旅游
房產(chǎn)
健康

數(shù)碼要聞

REDMI Note 15系列新春版圖賞:999元起 新增車?yán)遄蛹t配色

2025年,記住她們的名字!

旅游要聞

自貢非遺花燈點(diǎn)亮江南夜!2026無錫梅里古鎮(zhèn)新年燈會璀璨啟幕

房產(chǎn)要聞

實(shí)景暴擊!??谶@個頂流紅盤,拋出準(zhǔn)現(xiàn)房+頂級書包雙王炸!

元旦舉家出行,注意防流感

無障礙瀏覽 進(jìn)入關(guān)懷版