国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

重新思考長尾數(shù)據(jù)集蒸餾:具有無偏恢復與重標記的統(tǒng)一層級框架

0
分享至

Rethinking Long-tailed Dataset Distillation: A Uni-Level Framework withUnbiased Recovery and Relabeling

重新思考長尾數(shù)據(jù)集蒸餾:具有無偏恢復與重標記的統(tǒng)一層級框架


摘要

數(shù)據(jù)集蒸餾(Dataset distillation)創(chuàng)建一個小型蒸餾數(shù)據(jù)集,通過捕獲完整數(shù)據(jù)集中的關鍵信息來實現(xiàn)高效訓練。雖然現(xiàn)有的數(shù)據(jù)集蒸餾方法在平衡數(shù)據(jù)集上表現(xiàn)良好,但在長尾分布下卻面臨困難——在這種分布中,不平衡的類別頻率會導致模型表示產(chǎn)生偏置,并破壞諸如批歸一化(BN)統(tǒng)計量等統(tǒng)計估計。本文中,我們通過重新審視基于軌跡方法的局限性,重新思考長尾數(shù)據(jù)集蒸餾問題,轉(zhuǎn)而采用統(tǒng)計對齊的視角來聯(lián)合緩解模型偏置并恢復公平的監(jiān)督信號。為此,我們引入了三個專門設計的組件,以實現(xiàn)蒸餾圖像的無偏恢復和軟標簽重標定:(1)增強專家模型(一個用于恢復的觀察模型和一個用于重標定的教師模型),以實現(xiàn)可靠的統(tǒng)計估計和軟標簽生成;(2)通過完整前向傳播動態(tài)調(diào)整動量來重新校準BN統(tǒng)計量,以減少表示偏斜;(3)通過多輪機制逐步選擇高置信度且多樣化的增強樣本初始化合成圖像,以促進覆蓋性和多樣性。在四個長尾基準數(shù)據(jù)集上的大量實驗表明,我們的方法在不同程度的類別不平衡下均持續(xù)優(yōu)于現(xiàn)有最先進方法。值得注意的是,在IPC=10和IF=10的設置下,我們的方法在CIFAR-100-LT上提升了15.6%的top-1準確率,在Tiny-ImageNet-LT上提升了11.8%。

引言

數(shù)據(jù)集蒸餾(Dataset Distillation, DD)是合成一個顯著更小但具有代表性的數(shù)據(jù)集的過程,該數(shù)據(jù)集保留原始大型數(shù)據(jù)集的基本特征(Wang等人2018;Yu, Liu和Wang 2023;Liu和Du 2025)。通過大幅減少數(shù)據(jù)量,DD促進了高效的模型訓練并顯著降低計算成本,使其在資源受限場景中特別有價值(Cui等人2025c;Chai等人2024)。除了減輕計算負擔外,DD還提供了一個緊湊的視角來研究數(shù)據(jù)分布如何影響模型學習(Zhu等人2023;Cheng等人2024)。

長尾數(shù)據(jù)集蒸餾(Zhao等人2025)專門解決以類別不平衡為特征的場景,其中少數(shù)頭部類別包含豐富的樣本,而剩余的尾部類別則稀疏表示。這種不平衡在現(xiàn)實世界應用中普遍存在,因為為稀有類別獲取足夠樣本的成本高昂或不可行。大多數(shù)現(xiàn)有的DD方法(Liu等人2023;Guo等人2024;Shao等人2024b)在平衡數(shù)據(jù)集上表現(xiàn)良好,但在類別不平衡條件下則遇到困難。它們對均勻數(shù)據(jù)密度的假設導致合成集中頭部類別占主導地位,少數(shù)類別的表示不佳,最終在長尾場景中性能下降。

很少有研究明確解決傳統(tǒng)DD方法在長尾分布下的局限性,這主要是因為廣泛使用的基準數(shù)據(jù)集通常具有平衡的類別結(jié)構(gòu)(Krizhevsky 2012;Le和Yang 2015;Deng等人2009)。據(jù)我們所知,DAMED(Zhao等人2025)是最近唯一明確解決這一問題的研究工作。它通過向softmax層注入類別頻率感知的偏移量來模擬長尾訓練動態(tài),從而誘導模仿不平衡訓練下觀察到的梯度行為。然而,如圖1所示,DAMED仍存在顯著局限性。1)尾部類別表示不足。它依賴于在長尾數(shù)據(jù)上訓練但未去偏的特征提取專家,導致尾部類別表示在蒸餾數(shù)據(jù)集中保存不佳。2)軌跡匹配中的無意權(quán)衡。中頻類別接收到不穩(wěn)定或不足的梯度反饋,導致整個分布上的性能受損。3)沉重的計算開銷。其雙層基于軌跡的優(yōu)化存在計算效率低下和過度的GPU內(nèi)存使用問題,嚴重限制了實際適用性(Yin, Xing和Shen 2023)。


為全面解決這些缺點,我們提出了一種新穎的單層優(yōu)化框架,以成本高效的方式明確抵消源于類別不平衡的偏置。這一表述至關重要,因為有效的去偏策略往往導致專家的訓練軌跡顯著偏離標準訓練所誘導的軌跡,使得軌跡匹配變得不穩(wěn)定且具有挑戰(zhàn)性。我們的框架通過兩個互補組件考慮去偏:無偏合成圖像恢復和無偏軟標簽重標定。為了在長尾設置中實現(xiàn)有效恢復,我們的框架確保多樣化且具有代表性的合成圖像初始化,并利用去偏的專家模型(觀察模型)執(zhí)行BN統(tǒng)計量的公平提取以實現(xiàn)精確對齊。同時,無偏軟標簽重標定通過另一個訓練良好、去偏的專家模型(教師模型)生成的軟標簽提供有效的語義監(jiān)督。

為實現(xiàn)這一設計,我們引入了三種針對性的策略來緩解長尾分布下的模型偏置、統(tǒng)計不公平性和次優(yōu)初始化問題。

首先,我們提出了一種混合一致性損失(mixture consistency loss)和一種類別級去偏損失(class-wise debias loss)來正則化觀察模型和教師模型。前者確保對多種數(shù)據(jù)增強的魯棒特征學習,后者采用動態(tài)加權(quán)來重新平衡類別級監(jiān)督。

其次,我們重新校準BN統(tǒng)計量的估計,以應對類別不平衡和時間依賴性的挑戰(zhàn)。我們凍結(jié)觀察模型,并在整個訓練集上執(zhí)行高效的前向傳播。在此過程中,我們動態(tài)調(diào)整的動量確保每個類別內(nèi)所有樣本的平等貢獻,消除類內(nèi)偏置。然后我們對每類統(tǒng)計量取平均,以獲得全局平衡的估計,消除類間偏置。

第三,我們引入了一種置信度感知、類別無關的合成初始化策略。對于每個真實圖像,我們預計算多個增強版本,并使用教師模型通過負交叉熵進行評分。我們采用多輪選擇策略,每輪中每個圖像最多貢獻一個增強版本,逐步選擇高置信度變體以確保多樣性。為確保批次結(jié)構(gòu)一致,我們對實例數(shù)少于最大類別的所有類別插入零填充占位符。

我們的主要貢獻如下:

  • 我們通過從雙層軌跡匹配轉(zhuǎn)向單層統(tǒng)計對齊框架,重新思考長尾數(shù)據(jù)集蒸餾,該框架更好地支持去偏。

  • 我們通過三種關鍵策略實現(xiàn)無偏恢復和軟標簽重標定:專家模型去偏;公平BN統(tǒng)計量重新校準;以及置信度引導的多輪合成數(shù)據(jù)初始化。

  • 在CIFAR-10-LT、CIFAR-100-LT、Tiny-ImageNet-LT和ImageNet-LT上的大量實驗表明,我們相對于最先進基線具有一致的優(yōu)越性。在CIFAR-100-LT上提升準確率15.6%,在Tiny-ImageNet-LT上提升11.8%(IPC=10, IF=10)。

相關工作

數(shù)據(jù)集蒸餾

早期的數(shù)據(jù)集蒸餾方法,如K-Center(Sener和Savarese 2017)和GraphCut(Iyer等人2021),直接選擇真實數(shù)據(jù)的子集,這限制了所得蒸餾數(shù)據(jù)集的表達能力。后續(xù)方法分為三大類。基于梯度匹配的方法(Liu等人2023;Wang等人2025)對齊真實數(shù)據(jù)與蒸餾數(shù)據(jù)之間的梯度,但由于高內(nèi)存使用而擴展性較差。基于軌跡匹配的方法(Cazenavette等人2022;Zhong等人2025)模擬訓練動態(tài),但計算昂貴且內(nèi)存密集。基于分布匹配的方法(Zhao和Bilen 2023;Cui等人2025a)通過匹配特征加速收斂,但仍遭受高內(nèi)存成本,并在Tiny-ImageNet或ImageNet等更大數(shù)據(jù)集上性能下降。

近期研究嘗試通過基于生成模型的方法(Cui等人2025b;Chen等人2025)或采用單層優(yōu)化(Sun等人2024;Shao等人2024b)來減少內(nèi)存開銷。然而,生成方法通常依賴于在平衡大規(guī)模數(shù)據(jù)集上預訓練的生成器,而現(xiàn)有的單層方法在平衡假設下運行,缺乏顯式的去偏策略。DAMED(Zhao等人2025)是唯一明確針對長尾DD的先驗工作。然而,它繼承了長尾專家訓練的表示偏置,并保留了軌跡匹配框架的低效性。相比之下,我們的工作是首個在單層框架內(nèi)系統(tǒng)解決長尾DD的研究,具有原則性的專家去偏、圖像初始化和無偏對齊策略。

長尾識別

長尾識別指在不平衡數(shù)據(jù)分布下執(zhí)行的視覺任務(Zhang等人2025)。為緩解由此產(chǎn)生的表示偏置,數(shù)據(jù)增強策略已被廣泛研究(Zheng等人2024;Wang等人2024;Li和Jia 2025)。例如,Mixup(Zhang等人2018)及其類別感知擴展UniMix(Li等人2021)促進特征插值以豐富尾部類別的監(jiān)督,而CMO(Shi, Dong和Shen 2021)生成上下文感知的混合樣本,更好地保留稀有類別的語義一致性。

除增強外,其他方法通過網(wǎng)絡級優(yōu)化(Zhang等人2023;Zhu等人2024;He 2024)、使用生成模型或?qū)嵗M合的數(shù)據(jù)合成(Shao等人2024a;Khorram等人2024;Zhao等人2024)、以及損失重平衡策略(Xiong和Yao 2024;Du, Han和Huang 2024;Lin等人2017;Du等人2023)來放大來自代表性不足類別的學習信號,從而緩解長尾偏置。鑒于對長尾數(shù)據(jù)集蒸餾的關注有限,我們從更廣泛的長尾識別文獻中汲取概念洞見,對觀察模型和教師模型進行去偏,從而在嚴重類別不平衡下實現(xiàn)有效的蒸餾。

方法

問題陳述


為解決該問題,我們提出了一個用于無偏恢復和軟標簽重標定的單層統(tǒng)計對齊框架。我們的方法偏離了傳統(tǒng)的軌跡匹配方法,其根本性局限性在后續(xù)章節(jié)中詳細闡述。我們框架的成功依賴于三個核心策略:專家模型去偏、公平BN統(tǒng)計量重新校準、以及置信度引導的數(shù)據(jù)初始化。整個流程如圖2所示。


基于軌跡匹配方法的缺點



其中 F 表示訓練軌跡。然而,當專家模型 在長尾數(shù)據(jù)集上訓練時,其內(nèi)部表示不可避免地容易受到類別不平衡的影響,如果不實施適當?shù)母深A。優(yōu)化學生模型來模仿這樣的專家會導致蒸餾數(shù)據(jù)集繼承這種偏置,導致對頭部類別語義的過度強調(diào)和對少數(shù)類別的表示不足。

盡管DAMED(Zhao等人2025)嘗試在學生中模擬不平衡訓練動態(tài)以減少軌跡不匹配,但它依賴于一個在未去偏的不平衡數(shù)據(jù)上訓練的表示專家。因此,蒸餾數(shù)據(jù)集繼承了專家的表示偏置。更廣泛地說,基于軌跡的方法難以在顯式去偏和嚴格軌跡匹配之間取得平衡。蒸餾前的調(diào)整(如重加權(quán)或logit修正)會改變專家的優(yōu)化路徑,破壞了軌跡匹配的前提。同時,事后去偏是不切實際的,因為這些方法僅復現(xiàn)參數(shù)演變,缺乏對每類表示質(zhì)量的細粒度控制。除了這些局限性外,由于優(yōu)化的雙層性質(zhì)、多步訓練軌跡模擬以及通過展開計算圖的反向傳播,此類方法產(chǎn)生了大量的計算開銷。






BN統(tǒng)計量的公平重新校準 準確且公平的BN統(tǒng)計量在我們的框架中至關重要,因為它們作為圖像恢復的對齊目標。然而,在標準指數(shù)移動平均更新(固定動量)下,運行估計會因樣本貢獻不均而產(chǎn)生偏差:近期批次主導統(tǒng)計量,而早期批次被快速遺忘。這種效應在長尾設置中尤其成問題,其中每個尾部類別樣本具有高表示價值,必須對累積統(tǒng)計量做出平等貢獻。這些局限性促使我們采用事后重新校準策略。





方差 σ 同理。這種兩階段策略同時緩解了類內(nèi)偏置和類間偏置,從而作為統(tǒng)計對齊的可靠監(jiān)督信號。

置信度引導的多輪初始化 初始化主要決定最終合成圖像的多樣性,同時在促進長尾分布下的穩(wěn)定優(yōu)化方面也發(fā)揮輔助作用。傳統(tǒng)初始化策略通常依賴于采樣真實圖像或隨機噪聲。然而,隨機初始化往往導致收斂性差和下游性能下降。在高度不平衡的設置中,直接采樣真實圖像變得不可行,因為尾部類別通常包含太少樣本而無法提供充分的初始化。

為克服這一局限性,我們提出了一種專為長尾分布定制的置信度引導、多輪初始化策略。具體而言,我們?yōu)槊總€真實圖像生成多個增強版本(如裁剪),并通過教師模型 使用負交叉熵損失對它們進行評分。這些增強版本存儲在一個類別級候選池中。在每一輪中,每個真實圖像將其最自信且未使用的增強版本貢獻給一個臨時選擇池。如果候選總數(shù)超過該類別的剩余槽位,我們選擇得分最高的增強版本;否則,我們保留全部。這一過程重復進行,直到每個類別達到其目標IPC。該策略確保高置信度選擇,同時在不同類別規(guī)模下保持樣本級多樣性。為保持跨類別的結(jié)構(gòu)一致性,我們對真實樣本數(shù)少于最大類別的類別插入零初始化占位符。這些占位符被排除在增強和選擇過程之外,確保所有合成樣本都具有語義意義。




實驗


網(wǎng)絡架構(gòu) 遵循DAMED(Zhao等人2025)中建立的設置,我們采用深度為3的ConvNet作為CIFAR-10-LT和CIFAR-100-LT的學生模型,深度為4的ConvNet用于Tiny-ImageNet-LT和ImageNet-LT。鑒于ResNet架構(gòu)對大規(guī)模數(shù)據(jù)集的優(yōu)越表示能力,我們額外在高度不平衡場景下對ImageNet-LT評估ResNet-50。在評估期間,所有學生模型在蒸餾數(shù)據(jù)集上訓練1000個輪次。所有實驗重復五次以保證公平性,并主要在單張NVIDIA RTX 3090 GPU上進行。

基線方法 我們將我們的方法與多種代表性基線進行比較,包括核心集選擇方法如Random、K-Center Greedy(Sener和Savarese 2017)和Graph Cut(Iyer等人2021);基于梯度匹配的方法包括DC(Zhao, Mopuri和Bilen 2020)和DREAM(Liu等人2023);基于分布匹配的方法如CAFE(Wang等人2022)和IDM(Zhao等人2023);基于軌跡匹配的方法包括MTT(Cazenavette等人2022)、DATM(Guo等人2024)、TESLA(Cui等人2023)和DAMED(Zhao等人2025);單層優(yōu)化方法包括SRe2L(Yin, Xing和Shen 2023)、RDED(Sun等人2024)和EDC(Shao等人2024b);以及基于生成模型的方法如Minimax(Gu等人2024)。

結(jié)果與討論

主要結(jié)果 我們進行了全面的評估,涵蓋廣泛的IF和IPC配置,覆蓋不同復雜度的數(shù)據(jù)集。如表1、2、3和4所示,我們的方法在所有評估設置下始終優(yōu)于強基線。雖然DAMED(Zhao等人2025)產(chǎn)生的學生性能與其有偏專家的性能 closely matching——實際上達到了其性能上限——但我們的方法明確緩解了專家偏置,使蒸餾數(shù)據(jù)能夠監(jiān)督更準確和可泛化的學生模型,從而提高了可達到的上界。通過以類別平衡的方式對齊模型表示并重新校準平衡的BN統(tǒng)計量,我們的方法避免了對頭部類別的典型過擬合,并促進了跨類別和訓練樣本的公平學習。我們的去偏機制使蒸餾數(shù)據(jù)集能夠同時保留結(jié)構(gòu)保真度和語義完整性,使我們的方法在不同規(guī)模的數(shù)據(jù)集上廣泛有效。



高度不平衡設置下的結(jié)果 表5總結(jié)了高度不平衡場景下的結(jié)果。這些設置為數(shù)據(jù)集蒸餾帶來了重大挑戰(zhàn),特別是當某些類別的可用真實圖像數(shù)量低于目標IPC時。在這種約束下,一些先前的方法變得不適用;例如,EDC的初始化和RDED的采樣機制因尾部類別樣本不足而失敗。其他基線也難以取得有競爭力的性能,通常是由于有偏的表示學習或優(yōu)化不穩(wěn)定性。相比之下,我們的方法在所有測試配置下始終取得更強的性能。值得注意的是,在IF = 256且使用ResNet-50作為評估模型的情況下,我們?yōu)镮mageNet-LT生成的蒸餾集不僅優(yōu)于所有競爭方法在相同不平衡設置下生成的蒸餾集,而且超過了幾個使用完整、平衡的ImageNet-1K獲得的蒸餾集的方法。


極低IPC設置下的結(jié)果 我們進一步在嚴重壓縮的蒸餾機制下評估我們的方法,其中每類僅保留一個合成圖像。如表6所示,我們的方法在大多數(shù)數(shù)據(jù)集上實現(xiàn)了比所有基線高2倍以上的準確率提升。這一強勁性能源于兩個關鍵因素。首先,公平的BN統(tǒng)計量重新校準確保即使每類只有一個合成圖像也能反映準確的分布級信息,在最小數(shù)據(jù)容量下提供可靠的監(jiān)督。此外,無偏軟標簽提供語義指導,補償了低IPC合成樣本的有限表示表達能力。這些機制共同使我們的方法在極端蒸餾約束下保持魯棒性。


跨架構(gòu)性能 為評估其在架構(gòu)間的泛化能力,我們在同一蒸餾數(shù)據(jù)集上訓練多個不同結(jié)構(gòu)的學生模型。如表7所示,我們的方法在四種代表性評估骨干網(wǎng)絡上始終優(yōu)于現(xiàn)有方法。值得注意的是,基線方法通常在架構(gòu)間顯示出顯著的準確率變化,而我們的蒸餾數(shù)據(jù)支持 uniformly strong performance。這些結(jié)果表明,我們的方法捕獲了語義上有意義且可遷移的模式,促進了跨多樣化學生架構(gòu)的可泛化學習。


長尾數(shù)據(jù)集的類別級準確率 圖3比較了DAMED(Zhao等人2025)與我們方法的類別級準確率。DAMED在尾部類別上表現(xiàn)不佳,因為其有偏的專家訓練未能保留稀有類別的語義。此外,軌跡匹配期間使用的頻率調(diào)整損失忽略了中頻類別,導致性能受到抑制。相比之下,我們的方法通過首先訓練去偏的專家模型,然后對齊公平的BN統(tǒng)計量,避免了這些問題。


不同組件的消融實驗 如表8所示,每個組件對我們方法的成功都做出了關鍵貢獻。模型去偏策略在不降低頭部或中頻類別性能的情況下保留了尾部類別語義,從而提高了整體性能上限。重新校準的BN統(tǒng)計量確保每個訓練樣本,特別是來自少樣本類別的樣本,對累積表示做出公平貢獻。初始化策略為合成圖像提供了多樣化、具有類別代表性的起始點,即使每類真實數(shù)據(jù)稀缺時也是如此。

計算效率 我們通過比較運行時間和峰值GPU內(nèi)存使用,評估我們方法與DAMED(Zhao等人2025)的計算效率,DAMED是唯一專為長尾數(shù)據(jù)集蒸餾設計的現(xiàn)有方法。如表9所示,我們的方法大幅減少了專家模型訓練和蒸餾數(shù)據(jù)合成所需的計算時間。具體而言,在兩個數(shù)據(jù)集上,我們流程的總運行時間不到DAMED的二十分之一。除更快的執(zhí)行速度外,我們的方法還表現(xiàn)出更有利的內(nèi)存行為。如表10所示,DAMED的GPU內(nèi)存使用隨IPC快速增長,限制了其在較高值時的適用性。相比之下,我們的方法無論IPC如何都保持恒定的內(nèi)存使用,允許在廣泛設置下穩(wěn)定高效地執(zhí)行。


結(jié)論

我們提出了一個用于長尾數(shù)據(jù)集蒸餾的單層框架,明確設計用于解決先前方法中固有的表示偏置和低效問題。我們通過三個關鍵組件增強類別不平衡下的蒸餾效果:專家模型去偏、BN統(tǒng)計量重新校準和置信度感知初始化。大量實驗表明,我們的方法在廣泛的IF和IPC設置下始終優(yōu)于現(xiàn)有基線,包括高度不平衡和低樣本機制,展現(xiàn)出強魯棒性和泛化能力。

更廣泛的影響 我們的方法可能擴展到多領域或聯(lián)邦數(shù)據(jù)集蒸餾,其中數(shù)據(jù)不平衡自然發(fā)生在客戶端或領域之間。

原文鏈接:https://www.arxiv.org/pdf/2511.18858

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
邵佳一這次一口氣征召10名U23新星,為何唯獨不用彭嘯?原因找到

邵佳一這次一口氣征召10名U23新星,為何唯獨不用彭嘯?原因找到

零度眼看球
2026-03-27 07:29:19
上海全市強制執(zhí)行!騎車、走路上下班的都注意了!趕緊自查!

上海全市強制執(zhí)行!騎車、走路上下班的都注意了!趕緊自查!

小影的娛樂
2026-03-27 08:13:09
一點別同情她!被教練性侵27次,卻在奧運賽場上,把隊友撞出賽道

一點別同情她!被教練性侵27次,卻在奧運賽場上,把隊友撞出賽道

云舟史策
2026-03-18 14:29:29
95歲葉選平追悼會現(xiàn)場:身覆黨旗安睡,送別者擠滿會場,中央派人專程慰問

95歲葉選平追悼會現(xiàn)場:身覆黨旗安睡,送別者擠滿會場,中央派人專程慰問

文史明鑒
2026-03-26 21:54:14
無解!姆巴佩嗖一下就甩開巴西后衛(wèi):2秒跑10米+挑射 連續(xù)7場破門

無解!姆巴佩嗖一下就甩開巴西后衛(wèi):2秒跑10米+挑射 連續(xù)7場破門

風過鄉(xiāng)
2026-03-27 05:43:38
女子和男領導搞曖昧,尺度沒把握好被強行占有,結(jié)果害人又害己

女子和男領導搞曖昧,尺度沒把握好被強行占有,結(jié)果害人又害己

漢史趣聞
2026-03-26 14:15:30
領導干部任職前公示

領導干部任職前公示

錫望
2026-03-26 21:00:55
最近全網(wǎng)都在夸陳若琳長得好看,我真的想說:別光看臉啊

最近全網(wǎng)都在夸陳若琳長得好看,我真的想說:別光看臉啊

小光侃娛樂
2026-03-26 06:55:03
為什么一定要多接高中孩子放學?這5個答案點醒無數(shù)家長

為什么一定要多接高中孩子放學?這5個答案點醒無數(shù)家長

戶外阿毽
2026-03-26 12:33:16
石油危機惡化,美聯(lián)儲拒不加息,中國警惕了幾十年,防的就是今天

石油危機惡化,美聯(lián)儲拒不加息,中國警惕了幾十年,防的就是今天

無情有思ss
2026-03-26 14:01:00
全世界沒料到,美國動作真快,沒踩中東坑,反而一招洗空30萬億債

全世界沒料到,美國動作真快,沒踩中東坑,反而一招洗空30萬億債

瀲滟晴方DAY
2026-03-26 22:46:22
中國經(jīng)濟已正式從“增量狂歡”徹底切換至“存量絞殺”

中國經(jīng)濟已正式從“增量狂歡”徹底切換至“存量絞殺”

流蘇晚晴
2026-03-26 18:50:52
夢幻轉(zhuǎn)會:克瓦拉茨赫利亞加盟阿森納

夢幻轉(zhuǎn)會:克瓦拉茨赫利亞加盟阿森納

蘭亭墨未干
2026-03-27 08:55:13
阿根廷世界杯名單已定20人!16大名將爭最后6席 21歲加納喬已出局

阿根廷世界杯名單已定20人!16大名將爭最后6席 21歲加納喬已出局

我愛英超
2026-03-26 19:07:13
轟炸進入第四周:伊朗民眾現(xiàn)身說法,直指特朗普“完全不可信”

轟炸進入第四周:伊朗民眾現(xiàn)身說法,直指特朗普“完全不可信”

Ck的蜜糖
2026-03-27 09:56:36
東北兩省書記省長會見劉強東

東北兩省書記省長會見劉強東

觀察者網(wǎng)
2026-03-25 21:43:37
是時候說出真相!打越南時損失或超乎想象,從犧牲的名將后代便知

是時候說出真相!打越南時損失或超乎想象,從犧牲的名將后代便知

輿圖看世界
2026-03-26 09:15:03
日本被踢出局,僅僅48小時,高市就開始報復:拿中日關系做文章

日本被踢出局,僅僅48小時,高市就開始報復:拿中日關系做文章

掉了顆大白兔糖
2026-03-27 07:23:53
馬斯克粉碎華爾街規(guī)矩?SpaceX據(jù)稱擬將至多30%新股留給散戶

馬斯克粉碎華爾街規(guī)矩?SpaceX據(jù)稱擬將至多30%新股留給散戶

財聯(lián)社
2026-03-27 04:12:16
約基奇背靠背均貢獻15+15+15歷史首人!穆雷:嘆為觀止

約基奇背靠背均貢獻15+15+15歷史首人!穆雷:嘆為觀止

北青網(wǎng)-北京青年報
2026-03-26 20:51:06
2026-03-27 10:31:00
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1306文章數(shù) 18關注度
往期回顧 全部

科技要聞

OpenAI果斷砍掉"成人模式",死磕生產(chǎn)力

頭條要聞

65歲上海老伯相信"33歲女老師"給自己生兒子 被騙16萬

頭條要聞

65歲上海老伯相信"33歲女老師"給自己生兒子 被騙16萬

體育要聞

申京努力了,然而杜蘭特啊

娛樂要聞

劉曉慶妹妹發(fā)聲!稱姐姐受身邊人挑撥

財經(jīng)要聞

很反常!油價向上,黃金向下

汽車要聞

一汽奧迪A6L e-tron開啟預售 CLTC最大續(xù)航815km

態(tài)度原創(chuàng)

藝術(shù)
親子
本地
數(shù)碼
公開課

藝術(shù)要聞

江青的書法秘訣!只練草書真的能提升書法水平嗎?

親子要聞

過敏性鼻炎需要注意什么,飲食注意事項

本地新聞

救命,這只醬板鴨已經(jīng)在我手機復仇了一萬遍

數(shù)碼要聞

中國耳機市場6年來首次下滑:銷量跌回2億 2026還要降

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版