国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請入駐

PixelRefer :讓AI從“看大圖”走向“看懂每個(gè)對(duì)象”

0
分享至



多模態(tài)大模型(MLLMs)雖然在圖像理解、視頻分析上表現(xiàn)出色,但多停留在整體場景級(jí)理解。

而場景級(jí)理解 ≠ 視覺理解的終點(diǎn),現(xiàn)實(shí)任務(wù)(如自動(dòng)駕駛、機(jī)器人、醫(yī)療影像、視頻分析)需要的是細(xì)粒度、對(duì)象級(jí)(object-level)詳細(xì)理解。

然而,當(dāng)下的研究工作,如英偉達(dá)的Describe Anything Model (DAM)局限于單個(gè)物體的描述,難以深入理解多對(duì)象屬性、交互關(guān)系及其時(shí)序演變,且犧牲了模型本身的通用理解能力。

針對(duì)這一問題,浙江大學(xué)、達(dá)摩院、香港理工大學(xué)聯(lián)合提出了一種創(chuàng)新的解決方案PixelRefer:一個(gè)統(tǒng)一的時(shí)空像素級(jí)區(qū)域級(jí)理解框架,可實(shí)現(xiàn)任意粒度下的精細(xì)視覺指代與推理,在多項(xiàng)像素級(jí)細(xì)粒度理解任務(wù)取得領(lǐng)先性能表現(xiàn)。和DAM-3B相比,輕量版的2B模型推理時(shí)間加快了4倍,顯存占用減半,且訓(xùn)練數(shù)據(jù)量大大少于已有方法。



PixelRefer能夠?qū)θ我饽繕?biāo)實(shí)現(xiàn)準(zhǔn)確語義理解以及時(shí)空物體區(qū)域理解。









  • 論文標(biāo)題:
  • PixelRefer: A Unified Framework for Spatio-Temporal Object Referring with Arbitrary Granularity
  • 論文鏈接:
  • https://arxiv.org/abs/2510.23603
  • 項(xiàng)目網(wǎng)站鏈接:
  • https://circleradon.github.io/PixelRefer/
  • 代碼鏈接:
  • https://github.com/DAMO-NLP-SG/PixelRefer

先驗(yàn)分析:大模型“如何看懂區(qū)域”?

為了探索解決以上問題,作者基于通用視覺基礎(chǔ)模型采用最直接的設(shè)計(jì):將全局視覺token+像素級(jí)區(qū)域token+文本token一起喂給 LLM。當(dāng)無物體指代區(qū)域時(shí),模型則退化成通用視覺理解任務(wù),從而實(shí)現(xiàn)區(qū)域理解的同時(shí),保留通用模型本身的通用理解能力。

作者對(duì)LLM內(nèi)從淺層到深層中分析視覺token、區(qū)域token以及其他類型token進(jìn)行可視化分析。本文可以發(fā)現(xiàn)從淺層到深層,答案(Ans)優(yōu)先關(guān)注像素級(jí)區(qū)域token,其attention分?jǐn)?shù)一直很高,說明物體token表征對(duì)于模型的回答起到重要的作用。此外,全局圖像token(vision)則僅在淺層中(第一層)表現(xiàn)出較高的attention分布(Answer-to-image token attention),LLM的深層則表現(xiàn)較弱,甚至沒有影響,這個(gè)在通用視覺基礎(chǔ)模型研究中也被討論到。



淺層到深層的attention可視化

基于此分析,作者得出兩種設(shè)計(jì)方案:

  1. 高質(zhì)量像素級(jí)物體表征很重要:對(duì)于像素級(jí)區(qū)域的表達(dá),語義豐富的區(qū)域表征直接決定像素級(jí)語義理解的質(zhì)量;
  2. 全局信息的冗余可以通過“預(yù)融合”優(yōu)化:在 LLM 深層階段,全局視覺標(biāo)記的作用顯著減弱,在深層階段反而變得冗余,說明其信息可提前注入對(duì)象標(biāo)記中,以大幅減少計(jì)算開銷。

方法設(shè)計(jì)

為此,作者針對(duì)像素級(jí)細(xì)粒度理解定義了兩種框架,Vision-Object Framework (a)與Object-Only Framework (b):



PixelRefer(Vision-Object Framework)

對(duì)于PixelRefer,作者把全局視覺token+像素級(jí)區(qū)域token+文本token一起送入 LLM,既保留場景語境,又在對(duì)象級(jí)上精細(xì)推理。關(guān)鍵在于像素級(jí)區(qū)域表征token質(zhì)量足夠高。為此,作者提出尺度自適應(yīng)對(duì)象分詞器(Scale-Adaptive Object Tokenizer, SAOT) 來生成精確、緊湊、語義豐富的對(duì)象表示。

SAOT 圍繞兩個(gè)設(shè)計(jì):(i)小目標(biāo)容易在patch化后丟失細(xì)節(jié);(ii)大目標(biāo)的特征冗余嚴(yán)重。

核心做法分三步:

  1. 動(dòng)態(tài)尺度處理(Dynamic Object Processing)。按像素級(jí)區(qū)域大小自適應(yīng)地放大小物體、縮小大物體,并進(jìn)行上下文擴(kuò)展(在目標(biāo)周圍留出一定背景),保證既不丟細(xì)節(jié)也不過度冗余。隨后通過共享視覺編碼器取到區(qū)域級(jí)特征。
  2. 位置感知的掩碼特征抽?。∕ask Feature + Relative Positional Encoding)。對(duì)區(qū)域內(nèi)的有效特征做掩碼并疊加相對(duì)坐標(biāo)投影,形成位置感知的對(duì)象token,為后續(xù)推理提供“這片語義在圖像哪里”的線索。作者還為被裁剪/擴(kuò)展后的區(qū)域加入相對(duì)位置編碼來緩解對(duì)齊歧義,使對(duì)象token具備空間感知。
  3. 冗余聚合(Abundant Feature Aggregation)。對(duì)大/同質(zhì)區(qū)域里高度相似的token,采用k-means 聚類合并,只保留n 個(gè)代表性token,既壓縮冗余又保留多視角細(xì)節(jié)。這一步實(shí)證上顯著降低了對(duì)象內(nèi)部token的相似度,提高了表示“緊致度”。




PixelRefer-Lite (Object-Only Framework)

該變體僅使用對(duì)象標(biāo)記進(jìn)行 LLM 推理,借助對(duì)象中心信息融合模塊(Object-Centric Infusion Module, OCI)將全局特征在前處理階段融合入對(duì)象表示中。通過 Local-to-Object 和 Global-to-Object Attention,使目標(biāo)的表征同時(shí)具備細(xì)節(jié)感知與全局語義,從而實(shí)現(xiàn)更完整的上下文融合。這樣一來,推理階段無需再使用全局視覺標(biāo)記,顯著降低顯存與時(shí)間消耗,同時(shí)保持語義一致性與理解精度。



PixelRefer-Lite 實(shí)現(xiàn)了一個(gè)高效的推理框架,在保持高性能的同時(shí)將推理速度提升約 2–3 倍。

數(shù)據(jù)集

作者收集并開源了用于訓(xùn)練的兩類數(shù)據(jù)集,分別是Foundational Object Perception(140萬樣本):涵蓋物體、部件、時(shí)序關(guān)系的識(shí)別與描述以及Visual Instruction Tuning(80萬樣本):覆蓋區(qū)域QA、視頻QA、多對(duì)象關(guān)系與未來事件預(yù)測QA。



性能結(jié)果

  • 對(duì)于圖像像素級(jí)細(xì)粒度理解benchmark



PixelRefer在多個(gè)圖像理解benchmark上已達(dá)到SOTA水平,不論是簡單的區(qū)域識(shí)別還是詳細(xì)理解,已成為最先進(jìn)的模型,特別是在reasoning場景下,更是展現(xiàn)出了突出優(yōu)勢。

  • 對(duì)于視頻像素級(jí)細(xì)粒度理解benchmark



在經(jīng)典的VideoRefer-Bench上,不論是視頻區(qū)域的caption還是QA,均取得了領(lǐng)先性能,展現(xiàn)了通用而又全面的能力。

  • 對(duì)于推理時(shí)間與效率的計(jì)算



在基于圖片的benchmark DLC-Bench和基于視頻的benchmark上HC-STVG上均進(jìn)行了測評(píng),輕量版的PixelRefer-Lite-2B模型有較大的領(lǐng)先優(yōu)勢,特別是在視頻上,相較于DAM-3B,推理時(shí)間縮短了約4倍,顯存占用減少了2倍。

  • 消融實(shí)驗(yàn):Scale-adaptive Object TokenizervsMaskPooling



  • 相較于之前簡單maskpooling的做法,作者提出的Scale-adaptive Object Tokenizer模塊有明顯的提升,特別是在小目標(biāo)理解上,在LVIS和DLC-Bench上均提升了十幾個(gè)點(diǎn)。

  • 消融實(shí)驗(yàn):對(duì)于區(qū)域token的表征個(gè)數(shù)



研究意義與總結(jié)

PixelRefer的出現(xiàn),標(biāo)志著AI視覺理解從“看懂一張圖”邁向“理解世界的細(xì)節(jié)動(dòng)態(tài)”,為多模態(tài)大模型的精細(xì)化視覺理解提供了新的方向。應(yīng)用前景包括:

  • 自動(dòng)駕駛的時(shí)序場景識(shí)別
  • 醫(yī)療影像的病灶級(jí)理解
  • 智能視頻剪輯與監(jiān)控
  • 多模態(tài)對(duì)話與人機(jī)交互

未來的多模態(tài)AI,不僅會(huì)“看見世界”,更會(huì)理解世界的關(guān)系。PixelRefer的提出,正是通向通用視覺智能的一塊關(guān)鍵拼圖。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
定了!中國隊(duì)進(jìn)“死亡之組”!

定了!中國隊(duì)進(jìn)“死亡之組”!

五星體育
2026-04-22 01:19:29
美媒:伊朗最高領(lǐng)袖穆杰塔巴已批準(zhǔn)同美方進(jìn)行談判,白宮20日一整天都在等德黑蘭,如出現(xiàn)進(jìn)展跡象,特朗普也可能同意延長?;鹌谙?>
    </a>
        <h3>
      <a href=極目新聞
2026-04-21 09:44:58
太陽報(bào):更衣室消息透露,踢曼聯(lián)中場時(shí)有切爾西隊(duì)友罵加納喬

太陽報(bào):更衣室消息透露,踢曼聯(lián)中場時(shí)有切爾西隊(duì)友罵加納喬

懂球帝
2026-04-22 21:16:25
10萬億經(jīng)營貸,要兜不住了

10萬億經(jīng)營貸,要兜不住了

新浪財(cái)經(jīng)
2026-04-22 03:04:25
日艦闖臺(tái)海3天后,高市被逼辭職,岸田已扛旗,052D抵近奄美大島

日艦闖臺(tái)海3天后,高市被逼辭職,岸田已扛旗,052D抵近奄美大島

小莜讀史
2026-04-22 14:50:11
71歲老太,專治窮病

71歲老太,專治窮病

她刊
2026-04-21 19:53:19
火葬或?qū)⒊蔀闅v史?新型喪葬方式已經(jīng)開始,不少人表示接受無能

火葬或?qū)⒊蔀闅v史?新型喪葬方式已經(jīng)開始,不少人表示接受無能

蜉蝣說
2026-02-28 10:42:37
煮米飯別只加清水!酒店不外傳秘訣,粒粒蓬松超好吃

煮米飯別只加清水!酒店不外傳秘訣,粒粒蓬松超好吃

開心美食白科
2026-04-09 09:43:04
WTI原油期貨向下跌破90美元/桶

WTI原油期貨向下跌破90美元/桶

每日經(jīng)濟(jì)新聞
2026-04-22 08:18:13
“考不上高中就完了?”廣東剛剛宣布:讀職校也能考本科、拿高薪

“考不上高中就完了?”廣東剛剛宣布:讀職校也能考本科、拿高薪

教師吧
2026-04-22 14:04:33
藏在成都的5家“國寶級(jí)”中醫(yī)院!每一家都有看家本領(lǐng),快收藏

藏在成都的5家“國寶級(jí)”中醫(yī)院!每一家都有看家本領(lǐng),快收藏

荷蘭豆愛健康
2026-04-22 19:18:04
周潤發(fā)750萬賣出50平米山頂豪宅,雜草叢生,曾叫價(jià)1.95億賣不掉

周潤發(fā)750萬賣出50平米山頂豪宅,雜草叢生,曾叫價(jià)1.95億賣不掉

螃蟹吃瓜攤
2026-04-20 20:15:05
蘇群:詹姆斯打了39分鐘拼足老命 那兩個(gè)扣籃讓人以為他才31歲

蘇群:詹姆斯打了39分鐘拼足老命 那兩個(gè)扣籃讓人以為他才31歲

畫夕
2026-04-22 13:40:06
隨著吳宜澤10-2碾壓晉級(jí),斯諾克世錦賽16強(qiáng)已被中國軍團(tuán)搶走4席

隨著吳宜澤10-2碾壓晉級(jí),斯諾克世錦賽16強(qiáng)已被中國軍團(tuán)搶走4席

側(cè)身凌空斬
2026-04-21 23:05:21
申花6分鐘2球!蓋伊幸運(yùn)破荒,進(jìn)球失而復(fù)得,VAR立功

申花6分鐘2球!蓋伊幸運(yùn)破荒,進(jìn)球失而復(fù)得,VAR立功

奧拜爾
2026-04-22 21:24:01
狂妄到?jīng)]邊!以色列大使聯(lián)合國發(fā)飆,當(dāng)眾逼問中國給伊朗多少錢

狂妄到?jīng)]邊!以色列大使聯(lián)合國發(fā)飆,當(dāng)眾逼問中國給伊朗多少錢

健身狂人
2026-04-22 16:17:14
鬧大了!以色列又驚又怒!特朗普給以下死命令:適可而止!

鬧大了!以色列又驚又怒!特朗普給以下死命令:適可而止!

愛吃醋的貓咪
2026-04-22 21:08:12
繁華深處的“傷疤”:大連金座廣場27年?duì)€尾迷局

繁華深處的“傷疤”:大連金座廣場27年?duì)€尾迷局

林子說事
2026-04-22 15:58:57
3年前就戳穿西貝預(yù)制菜沒人信,如今被實(shí)錘!這個(gè)探店博主藏得太深了

3年前就戳穿西貝預(yù)制菜沒人信,如今被實(shí)錘!這個(gè)探店博主藏得太深了

馬蹄燙嘴說美食
2026-04-15 18:29:48
十五部門:加強(qiáng)青年婚戀觀引導(dǎo),深入實(shí)施育兒補(bǔ)貼制度,探索住房、出行、消費(fèi)等多領(lǐng)域聯(lián)動(dòng)的生育支持政策

十五部門:加強(qiáng)青年婚戀觀引導(dǎo),深入實(shí)施育兒補(bǔ)貼制度,探索住房、出行、消費(fèi)等多領(lǐng)域聯(lián)動(dòng)的生育支持政策

每日經(jīng)濟(jì)新聞
2026-04-22 15:16:09
2026-04-22 22:04:49
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12831文章數(shù) 142633關(guān)注度
往期回顧 全部

科技要聞

對(duì)話梅濤:沒有視頻底座,具身智能走不遠(yuǎn)

頭條要聞

媒體:伊朗用“不怕死”三個(gè)字 勸退特朗普

頭條要聞

媒體:伊朗用“不怕死”三個(gè)字 勸退特朗普

體育要聞

網(wǎng)易傳媒再度簽約法國隊(duì)和阿根廷隊(duì)

娛樂要聞

復(fù)婚無望!baby黃曉明陪小海綿零交流

財(cái)經(jīng)要聞

醫(yī)院專家號(hào)"秒空"!警方牽出黑色產(chǎn)業(yè)鏈

汽車要聞

純電續(xù)航301km+激光雷達(dá) 宋Pro DM-i飛馳版9.99萬起

態(tài)度原創(chuàng)

藝術(shù)
親子
本地
教育
公開課

藝術(shù)要聞

無花不風(fēng)景

親子要聞

媽媽看不到的時(shí)候,孩子能拒絕才真的放心!

本地新聞

春色滿城關(guān)不?。座N梅浪漫盛放,吳山藏了一片四月雪

教育要聞

自主招生比例調(diào)整到20%?NO!NO!NO!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版