国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

FS-DETR如何實現(xiàn)高效的少樣本目標檢測并超越現(xiàn)有技術(shù)

0
分享至

在計算機視覺領(lǐng)域,目標檢測技術(shù)已取得長足進步,但傳統(tǒng)閉集檢測方式仍存在明顯短板。想象一下,如果你能讓機器像人類一樣,只需看到幾個例子就能識別從未見過的物體,而不必經(jīng)歷漫長的再訓練過程,這會帶來怎樣的變革?FS-DETR正是為解決這一挑戰(zhàn)而生。它通過巧妙的視覺提示和偽類嵌入機制,使模型能夠在單次前向傳遞中同時檢測多個新類別,且支持每類任意數(shù)量的樣本。最令人驚嘆的是,它不僅超越了所有無需再訓練的方法,甚至在極少樣本情況下?lián)魯×舜蠖鄶?shù)需要再訓練的方法。這種能夠"即插即用"的檢測能力,將如何重塑我們對機器視覺學習能力的認知?

認知的邊界

傳統(tǒng)目標檢測技術(shù)在過去幾年取得了巨大突破,這主要得益于深度學習的廣泛應用。但這些系統(tǒng)普遍采用閉集設(shè)定——在固定類別上訓練和測試,這種方式存在著難以忽視的局限性。

想象你有一臺機器人助手,它能識別家中的常見物品如椅子、桌子和電視。某天,你帶回一個電子筆記本,但機器人無法識別它,因為它從未在訓練數(shù)據(jù)中見過這類物品。在現(xiàn)實世界中,不可能預先標注所有可能遇到的物體,因此大多數(shù)當前系統(tǒng)只訓練識別一小部分物體類別。

人類視覺系統(tǒng)則截然不同。我們可以僅通過看一眼新物體,就能在不同場景中識別它,無需"重新訓練"我們的視覺能力。這種能力很可能源于我們已學習的表示知識,這正是少樣本目標檢測(FSOD)試圖模擬的核心能力。

少樣本目標檢測指的是借助幾個樣本(通常為1-10個)來檢測訓練時未見過的新類別物體的任務。從2019年開始,這一領(lǐng)域的研究顯著增加,各種方法競相登場。這些方法主要分為兩大類:基于再訓練的方法和無需再訓練的方法。

基于再訓練的方法假設(shè)在測試前可以利用新類別的少量樣本微調(diào)模型。這類方法又可分為基于元學習和基于微調(diào)的方法。元學習方法如FSRW、MetaDet和Meta R-CNN嘗試通過元學習將知識從基類遷移到新類別。而基于微調(diào)的方法如TFA、FSCE和DeFRCN則采用預訓練再微調(diào)的標準流程,它們在性能上明顯優(yōu)于元學習方法。

無需再訓練的方法則更為靈活,能夠在不需額外訓練的情況下直接部署。這類方法主要基于度量學習,如QA-FewDet和AirDet等。它們通常使用交叉注意力機制在骨干網(wǎng)絡和查詢特征間進行細化,或通過原型學習和跨尺度支持引導的方式生成檢測建議。

盡管現(xiàn)有FSOD系統(tǒng)取得了可觀進展,但要成為真正實用和靈活的系統(tǒng),它們?nèi)孕铦M足三個關(guān)鍵要求:(a)使用即插即用,無需測試時再訓練;(b)能在同一前向傳遞中同時處理任意數(shù)量的新物體類別和每類任意數(shù)量的樣本;(c)達到與閉集系統(tǒng)相當?shù)姆诸悳蚀_率。目前的FSOD系統(tǒng)距離滿足這三點要求仍有不小差距,特別是在MSCOCO這樣的困難數(shù)據(jù)集上。

變革的設(shè)計

FS-DETR是一種基于DETR框架的創(chuàng)新少樣本檢測器,完全無需重新訓練就能同時處理多個新類別。這種設(shè)計思路的獨特之處在于,它將少樣本檢測問題重新構(gòu)建為一個通過視覺提示控制的集合預測問題。

DETR原本通過一組可學習的查詢來重新定義目標檢測任務,這些查詢通過交叉注意力機制與圖像特征交互,從而產(chǎn)生檢測預測。FS-DETR在此基礎(chǔ)上進行了關(guān)鍵擴展,使其能夠處理開放集少樣本檢測問題。

FS-DETR的核心創(chuàng)新在于兩點:首先,它將新類別的視覺模板作為額外的視覺提示輸入到系統(tǒng)中;其次,這些提示被"打上"偽類嵌入的標記,這些偽類標記最終會在解碼器輸出中被預測出來,同時還會預測邊界框位置。

具體來說,F(xiàn)S-DETR的架構(gòu)由三個主要部分組成:(1)CNN骨干網(wǎng)絡,用于從目標圖像和模板中提取視覺特征;(2)變換器編碼器,對圖像令牌執(zhí)行自注意力,并在模板和圖像令牌之間執(zhí)行交叉注意力;(3)變換器解碼器,處理對象查詢和模板以預測偽類和邊界框。

模板編碼是FS-DETR的第一個關(guān)鍵步驟。對于可用的m個類別(每類k個示例),模板圖像首先通過CNN骨干網(wǎng)絡生成模板特征。然后,這些特征被動態(tài)地關(guān)聯(lián)到偽類嵌入中,這些嵌入是隨機初始化并在訓練過程中學習的。值得注意的是,這些偽類嵌入與實際類別無關(guān),是完全類別無關(guān)的。

這些帶有偽類嵌入的模板接著作為視覺提示被添加到傳遞給解碼器的對象查詢序列中。這樣,模板就能通過注意力機制將偽類相關(guān)信息注入到對象查詢中。這可以被視為一種新型的訓練感知軟提示。

在編碼器階段,目標圖像首先通過相同的CNN骨干網(wǎng)絡生成特征,并通過位置編碼增強。然后,這些特征通過多頭自注意力、層歸一化和MLP層進行處理,以獲取全局上下文信息。FS-DETR還引入了多頭交叉注意力層,用于在解碼前過濾和突出感興趣的圖像令牌。

解碼器接受連接的模板和可學習對象查詢作為輸入,通過自注意力和交叉注意力層進行轉(zhuǎn)換,最終用于偽類預測和邊界框回歸。值得一提的是,F(xiàn)S-DETR對應于模板和對象查詢的解碼器特征使用不同的MLP進行處理,這是因為它們攜帶的信息在語義上有所不同。

FS-DETR的訓練過程也頗具特色。對于目標圖像中存在的每個基類,系統(tǒng)會從訓練集中不同的圖像隨機采樣并裁剪該類別的對象作為模板。在應用圖像增強后,裁剪的對象/模板通過CNN骨干網(wǎng)絡傳遞。對于每個目標圖像和模板i,訓練目標是(c^s_i, b_i),其中c^s_i是目標偽類標簽,b_i是歸一化的邊界框坐標。

為了計算損失,只使用最后一個解碼層輸出的N個轉(zhuǎn)換對象查詢進行偽類分類和邊界框回歸。系統(tǒng)通過二分匹配找到最優(yōu)排列,最終損失由交叉熵分類損失、L1邊界框回歸損失和IoU損失組成。

由于變換器架構(gòu)相比CNN缺乏歸納偏置,更容易過擬合,因此FS-DETR采用無監(jiān)督預訓練策略。系統(tǒng)使用ImageNet-100和部分MSCOCO圖像進行預訓練,其中類別和邊界框是通過對象提議系統(tǒng)即時生成的,無需使用任何標簽。這種預訓練方式顯著提升了系統(tǒng)的泛化能力。

與其他方法如TSF和AirDet不同,F(xiàn)S-DETR不學習任何類型的基類原型,而是完全動態(tài)的(數(shù)據(jù)與數(shù)據(jù)之間的交互,而非數(shù)據(jù)與原型的交互)。此外,與使用二元交叉熵損失的度量學習方法不同,F(xiàn)S-DETR訓練預測偽類,使用交叉熵以類別無關(guān)的方式,這是一個更強大的訓練目標。

技術(shù)的本質(zhì)

FS-DETR的核心優(yōu)勢在于它的視覺提示機制和偽類嵌入設(shè)計,這兩項創(chuàng)新使得模型能夠在沒有再訓練的情況下識別新類別物體。傳統(tǒng)目標檢測器需要大量特定類別的數(shù)據(jù)才能學習識別新物體,而FS-DETR只需要幾個示例就能完成同樣的任務。

視覺提示機制是FS-DETR的第一個關(guān)鍵創(chuàng)新。在這個系統(tǒng)中,新類別的視覺模板直接作為提示輸入到模型中。具體來說,這些模板有兩種用途:一是在編碼器中通過交叉注意力過濾骨干網(wǎng)絡的圖像特征;二是作為視覺提示添加到解碼器的可學習對象查詢前面。這種設(shè)計允許系統(tǒng)在推理時直接使用新類別的視覺外觀信息,無需額外的訓練過程。

偽類嵌入是系統(tǒng)的另一個關(guān)鍵組成部分。每個視覺模板都被賦予一個特定的偽類嵌入,這些嵌入在訓練過程中學習得到。值得注意的是,這些偽類嵌入是類別無關(guān)的,它們不與實際類別名稱相關(guān)聯(lián)。在訓練過程中,每次迭代都會隨機將模板關(guān)聯(lián)到偽類嵌入,這確保了系統(tǒng)學習到的是通用的檢測能力,而非特定類別的識別能力。當一個新類別的多個示例輸入系統(tǒng)時,它們會共享同一個偽類嵌入,這樣系統(tǒng)就能將它們識別為同一類別。

在技術(shù)實現(xiàn)上,偽類嵌入的添加方式非常直接:對于每個類別i的k個模板提示,系統(tǒng)會分配一個偽類嵌入c^s_i,并將其添加到模板特征上。這些帶有偽類標記的模板隨后被預置到傳遞給解碼器的對象查詢序列前,形成一個擴展的查詢序列。

FS-DETR處理多類別和多樣本的能力尤為突出。與需要為每個新類別單獨運行一次前向傳遞的其他方法不同,F(xiàn)S-DETR能在單次前向傳遞中同時處理多個新類別,每個類別可以有任意數(shù)量的示例。這大大提高了系統(tǒng)的效率,特別是在需要識別多個新類別的場景中。

在推理階段,用戶只需提供新類別的幾個視覺模板,系統(tǒng)就能直接用于檢測這些新類別,無需任何微調(diào)或再訓練。這種"即插即用"的能力使FS-DETR特別適合實時部署和資源受限的設(shè)備。

與競爭方法相比,F(xiàn)S-DETR的設(shè)計更加簡潔和優(yōu)雅。例如,TSF方法使用額外的變換器插件模塊來建模輸入特征與基類信息之間的交互,而AirDet則嘗試學習一組原型和跨尺度支持引導的建議網(wǎng)絡。相比之下,F(xiàn)S-DETR不需要任何額外的模塊或仔細設(shè)計的結(jié)構(gòu),它直接將提示附加到解碼器的對象查詢上,通過標準的注意力機制實現(xiàn)所有功能。

FS-DETR的訓練目標也與其他方法不同。許多基于度量學習的方法使用二元交叉熵損失進行訓練,而FS-DETR使用多類別交叉熵來預測偽類,這是一個更強大的訓練目標。因為系統(tǒng)不需要學習類別名稱與視覺表示之間的映射,而是直接學習檢測物體的能力,所以它能更好地泛化到未見過的類別。

值得一提的是,F(xiàn)S-DETR的無監(jiān)督預訓練策略在提高系統(tǒng)性能方面起到了關(guān)鍵作用。通過在ImageNet-100和部分MSCOCO圖像上進行預訓練,系統(tǒng)能夠?qū)W習到更加通用的表示,這對于少樣本學習尤為重要。預訓練過程中,系統(tǒng)使用對象提議系統(tǒng)生成類別和邊界框,完全不依賴任何人工標注。

實驗的力量

為了全面評估FS-DETR的性能,研究團隊在PASCAL VOC和MSCOCO這兩個廣泛使用的數(shù)據(jù)集上進行了大量實驗。實驗設(shè)置遵循前人工作的慣例,將數(shù)據(jù)集分為基類和新類別,用基類進行訓練,用新類別進行測試。

在PASCAL VOC數(shù)據(jù)集上,F(xiàn)S-DETR的表現(xiàn)尤為突出。對于每個k-shot實驗(k=1,2,3,5,10),F(xiàn)S-DETR都顯著優(yōu)于所有無需再訓練的方法,在某些情況下,性能提升高達17.8個AP50點。例如,在Novel Set 1的1-shot實驗中,F(xiàn)S-DETR達到了45.0的AP50,而之前最好的無需再訓練方法QA-FewDet僅為41.0。這一差距在k值增加時仍然存在,展示了FS-DETR在各種樣本數(shù)量下的穩(wěn)定性能。

更令人印象深刻的是,F(xiàn)S-DETR甚至超越了許多需要再訓練的方法,特別是在極少樣本(k=1,2)的情況下。例如,在Novel Set 2的1-shot實驗中,F(xiàn)S-DETR達到了37.3的AP50,而需要再訓練的方法如DeFRCN僅為29.5。這表明FS-DETR能夠在沒有額外訓練的情況下,實現(xiàn)與專門為新類別微調(diào)的模型相當甚至更好的性能。

在更具挑戰(zhàn)性的MSCOCO數(shù)據(jù)集上,F(xiàn)S-DETR同樣表現(xiàn)出色。它在大多數(shù)k-shot設(shè)置下都超越了所有無需再訓練的方法,例如,在1-shot實驗中,F(xiàn)S-DETR達到了7.0的AP和13.6的AP50,明顯優(yōu)于之前最好的方法AirDet(5.97的AP和10.52的AP50)。與再訓練方法相比,F(xiàn)S-DETR在k=1,2的情況下也能匹配或超越大多數(shù)方法,這在MSCOCO這樣困難的數(shù)據(jù)集上是一個顯著成就。

研究團隊還進行了大量消融實驗,以評估不同組件對FS-DETR性能的貢獻。這些實驗涵蓋了模板編碼設(shè)計、預訓練策略、輔助損失以及個別組件的影響等方面。

模板編碼設(shè)計的實驗表明,使用注意力池化而非全局平均池化可以提升性能,而增加分辨率從128像素到192像素并沒有帶來額外收益。這表明對于當前數(shù)據(jù)集,細粒度細節(jié)并非識別新類別的關(guān)鍵,較高級別的概念已經(jīng)足夠。此外,雖然空間增強通常有助于目標識別,但在模板邊界框上添加噪聲反而降低了準確率。

預訓練策略的實驗結(jié)果特別引人注目。未經(jīng)預訓練的模型在Novel Set 1的1-shot實驗中只能達到19.0的AP50,而經(jīng)過預訓練的模型達到了45.0,性能提升超過兩倍。這凸顯了無監(jiān)督預訓練在少樣本學習中的重要性,它能幫助模型建立更好的泛化能力,防止對基類的過擬合。

研究團隊還探索了在對象查詢上應用額外輔助損失(如L2特征損失和對比損失)的效果,但沒有觀察到進一步的性能提升。這表明偽類分類損失已經(jīng)足夠引導網(wǎng)絡學習有效的表示。

最后,個別組件的消融實驗表明,F(xiàn)S-DETR編碼器中的多頭交叉注意力層和解碼器中的類型特定MLP都對性能有顯著貢獻。移除這些組件會導致性能下降,特別是移除編碼器中的交叉注意力層會使得Novel Set 1的1-shot性能從45.0降至38.1。這表明早期在圖像處理中注入模板相關(guān)信息對于突出關(guān)鍵區(qū)域至關(guān)重要。

除了定量結(jié)果,研究團隊還提供了大量定性可視化結(jié)果,展示了FS-DETR在各種場景下的檢測能力。這些可視化結(jié)果直觀地展示了系統(tǒng)如何利用少量示例準確定位和分類新類別的物體,即使這些物體在形狀、大小、姿態(tài)和遮擋等方面有很大變化。

總體而言,實驗結(jié)果表明FS-DETR不僅滿足了實用FSOD系統(tǒng)的所有要求——無需再訓練、能處理多個新類別、性能接近閉集系統(tǒng)——而且在很多情況下超越了當前最先進的方法,特別是在極少樣本學習方面。這一成就標志著少樣本目標檢測領(lǐng)域的重要進展,為構(gòu)建更加靈活和實用的計算機視覺系統(tǒng)鋪平了道路。

參考資料

  1. Bulat, A., Guerrero, R., Martinez, B., &; Tzimiropoulos, G. (2023). FS-DETR: Few-Shot DEtection TRansformer with prompting and without re-training. ICCV 2023.

  2. Carion, N., Massa, F., Synnaeve, G., Usunier, N., Kirillov, A., &; Zagoruyko, S. (2020). End-to-End Object Detection with Transformers. ECCV 2020.

  3. Xu, Q., Tian, Z., Wang, Y., &; Huang, T. (2022). Meta-DETR: Few-Shot Object Detection via Unified Image-Level Meta-Learning. IEEE TPAMI.

  4. Hu, L., Zhang, S., Wang, S., Kang, B., &; Li, H. (2022). AirDet: Few-Shot Detection without Fine-tuning. CVPR 2022.

  5. Wang, X., Huang, T., Barnes, C., Zhong, Y., &; Lu, H. (2022). Query Adaptive Few-Shot Object Detection with Heterogeneous Graph Convolutional Networks. ICCV 2021.

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
徐湖平在部隊期間因“手腳不干凈”,被營長岳振華踢出了軍隊?

徐湖平在部隊期間因“手腳不干凈”,被營長岳振華踢出了軍隊?

方圓文史
2025-12-27 16:56:27
什么菜?讓無數(shù)上海小囡瑟瑟發(fā)抖?網(wǎng)友集體報菜名!看懂的人都暴露年齡了

什么菜?讓無數(shù)上海小囡瑟瑟發(fā)抖?網(wǎng)友集體報菜名!看懂的人都暴露年齡了

上觀新聞
2025-12-28 14:31:15
香港男子命喪天水圍橋底,嫌疑人在深圳灣口岸落網(wǎng)!押回現(xiàn)場

香港男子命喪天水圍橋底,嫌疑人在深圳灣口岸落網(wǎng)!押回現(xiàn)場

南方都市報
2025-12-28 12:18:04
中央確認江蘇省九大縣級市:昆山穩(wěn)居第1,常熟領(lǐng)先宜興,泰興第9

中央確認江蘇省九大縣級市:昆山穩(wěn)居第1,常熟領(lǐng)先宜興,泰興第9

三農(nóng)老歷
2025-12-28 13:39:22
殲-15幾乎全部退役,淪為全球最短命艦載機!它究竟有哪些短板?

殲-15幾乎全部退役,淪為全球最短命艦載機!它究竟有哪些短板?

小莜讀史
2025-12-27 14:55:11
啪啪打臉!《亞洲周刊》甩出一張圖,直接讓徐鶯安靜,謊言拆穿了

啪啪打臉!《亞洲周刊》甩出一張圖,直接讓徐鶯安靜,謊言拆穿了

火山詩話
2025-12-28 09:29:15
李詠妻子哈文在美國過圣誕!吃全聚德烤鴨,調(diào)侃自己過成了中國年

李詠妻子哈文在美國過圣誕!吃全聚德烤鴨,調(diào)侃自己過成了中國年

娛樂圈圈圓
2025-12-27 10:37:31
AI圈發(fā)生9級地震:大神 Karpathy 的一條推文,戳破了所有人的幻想

AI圈發(fā)生9級地震:大神 Karpathy 的一條推文,戳破了所有人的幻想

AI范兒
2025-12-28 10:40:12
兩人互毆被驅(qū)逐!太陽三殺3人20+鵜鶘 布克20分引7人上雙

兩人互毆被驅(qū)逐!太陽三殺3人20+鵜鶘 布克20分引7人上雙

醉臥浮生
2025-12-28 10:33:01
國家重點建設(shè)項目造假!還有什么事,是他們不敢干的?

國家重點建設(shè)項目造假!還有什么事,是他們不敢干的?

劍鳴濤聲
2025-12-02 05:08:17
女子稱花30余萬買到升級前的特斯拉“老款”拒提車 車企:員工協(xié)助下單未執(zhí)行標準確認流程

女子稱花30余萬買到升級前的特斯拉“老款”拒提車 車企:員工協(xié)助下單未執(zhí)行標準確認流程

紅星新聞
2025-12-28 15:24:12
杜蘭特30+7火箭最多領(lǐng)先31分大勝騎士 申京缺席謝潑德18+8

杜蘭特30+7火箭最多領(lǐng)先31分大勝騎士 申京缺席謝潑德18+8

醉臥浮生
2025-12-28 11:15:49
港媒發(fā)布文章《徐湖平父親究竟是誰》,沒多久遭到微博屏蔽

港媒發(fā)布文章《徐湖平父親究竟是誰》,沒多久遭到微博屏蔽

映射生活的身影
2025-12-27 19:34:50
干涉別人因果有啥嚴重后果?網(wǎng)友:那能給別人介紹對象嗎?

干涉別人因果有啥嚴重后果?網(wǎng)友:那能給別人介紹對象嗎?

解讀熱點事件
2025-12-21 00:05:08
銀行女經(jīng)理挪用12個儲戶3000萬,事發(fā)后與丈夫雙雙自盡,儲戶天塌了

銀行女經(jīng)理挪用12個儲戶3000萬,事發(fā)后與丈夫雙雙自盡,儲戶天塌了

觀世記
2025-12-27 15:02:35
同仁堂集團:責令李聲義辭職,召回涉事產(chǎn)品!市場監(jiān)管總局也回應了

同仁堂集團:責令李聲義辭職,召回涉事產(chǎn)品!市場監(jiān)管總局也回應了

每日經(jīng)濟新聞
2025-12-25 19:11:15
電影《地道戰(zhàn)》背后的歷史,數(shù)百軍民的遺骸至今仍被掩埋在地道內(nèi)

電影《地道戰(zhàn)》背后的歷史,數(shù)百軍民的遺骸至今仍被掩埋在地道內(nèi)

云霄紀史觀
2025-12-26 18:27:20
床在晃、樓在搖!杭州網(wǎng)友:震感明顯,有人穿睡衣跑下樓!臺灣突發(fā)6.6級地震

床在晃、樓在搖!杭州網(wǎng)友:震感明顯,有人穿睡衣跑下樓!臺灣突發(fā)6.6級地震

爆笑大聰明阿衿
2025-12-27 23:50:20
南京一別墅7489萬余元法拍成交,僅物業(yè)費就欠30余萬元

南京一別墅7489萬余元法拍成交,僅物業(yè)費就欠30余萬元

現(xiàn)代快報
2025-12-28 13:47:08
2026年春晚分會場官宣

2026年春晚分會場官宣

界面新聞
2025-12-28 15:50:43
2025-12-28 17:08:49
臆說歷史 incentive-icons
臆說歷史
作有深度的歷史解讀
162文章數(shù) 233關(guān)注度
往期回顧 全部

科技要聞

AR眼鏡第一案,究竟在爭什么?

頭條要聞

環(huán)球:美媒一定程度上承認了“斬殺線”存在

頭條要聞

環(huán)球:美媒一定程度上承認了“斬殺線”存在

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

姚晨打卡絕版機位 高崎機場背后的遺憾

財經(jīng)要聞

英偉達的收購史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

健康
本地
教育
游戲
房產(chǎn)

這些新療法,讓化療不再那么痛苦

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬年史書

教育要聞

“三年級就剩2個娃了”,老師曬農(nóng)村教育現(xiàn)狀:咋考都是前三名

反復鞭尸!玩家讓《星鳴特攻》黑人女性一秒變女神

房產(chǎn)要聞

降維打擊!三亞CBD驚現(xiàn)“豪宅新王”,高端局要變天了!

無障礙瀏覽 進入關(guān)懷版