国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

PixelRefer :讓AI從“看大圖”走向“看懂每個對象”

0
分享至



多模態(tài)大模型(MLLMs)雖然在圖像理解、視頻分析上表現(xiàn)出色,但多停留在整體場景級理解。

而場景級理解 ≠ 視覺理解的終點(diǎn),現(xiàn)實(shí)任務(wù)(如自動駕駛、機(jī)器人、醫(yī)療影像、視頻分析)需要的是細(xì)粒度、對象級(object-level)詳細(xì)理解。

然而,當(dāng)下的研究工作,如英偉達(dá)的Describe Anything Model (DAM)局限于單個物體的描述,難以深入理解多對象屬性、交互關(guān)系及其時序演變,且犧牲了模型本身的通用理解能力。

針對這一問題,浙江大學(xué)、達(dá)摩院、香港理工大學(xué)聯(lián)合提出了一種創(chuàng)新的解決方案PixelRefer:一個統(tǒng)一的時空像素級區(qū)域級理解框架,可實(shí)現(xiàn)任意粒度下的精細(xì)視覺指代與推理,在多項(xiàng)像素級細(xì)粒度理解任務(wù)取得領(lǐng)先性能表現(xiàn)。和DAM-3B相比,輕量版的2B模型推理時間加快了4倍,顯存占用減半,且訓(xùn)練數(shù)據(jù)量大大少于已有方法。



PixelRefer能夠?qū)θ我饽繕?biāo)實(shí)現(xiàn)準(zhǔn)確語義理解以及時空物體區(qū)域理解。









  • 論文標(biāo)題:
  • PixelRefer: A Unified Framework for Spatio-Temporal Object Referring with Arbitrary Granularity
  • 論文鏈接:
  • https://arxiv.org/abs/2510.23603
  • 項(xiàng)目網(wǎng)站鏈接:
  • https://circleradon.github.io/PixelRefer/
  • 代碼鏈接:
  • https://github.com/DAMO-NLP-SG/PixelRefer

先驗(yàn)分析:大模型“如何看懂區(qū)域”?

為了探索解決以上問題,作者基于通用視覺基礎(chǔ)模型采用最直接的設(shè)計(jì):將全局視覺token+像素級區(qū)域token+文本token一起喂給 LLM。當(dāng)無物體指代區(qū)域時,模型則退化成通用視覺理解任務(wù),從而實(shí)現(xiàn)區(qū)域理解的同時,保留通用模型本身的通用理解能力。

作者對LLM內(nèi)從淺層到深層中分析視覺token、區(qū)域token以及其他類型token進(jìn)行可視化分析。本文可以發(fā)現(xiàn)從淺層到深層,答案(Ans)優(yōu)先關(guān)注像素級區(qū)域token,其attention分?jǐn)?shù)一直很高,說明物體token表征對于模型的回答起到重要的作用。此外,全局圖像token(vision)則僅在淺層中(第一層)表現(xiàn)出較高的attention分布(Answer-to-image token attention),LLM的深層則表現(xiàn)較弱,甚至沒有影響,這個在通用視覺基礎(chǔ)模型研究中也被討論到。



淺層到深層的attention可視化

基于此分析,作者得出兩種設(shè)計(jì)方案:

  1. 高質(zhì)量像素級物體表征很重要:對于像素級區(qū)域的表達(dá),語義豐富的區(qū)域表征直接決定像素級語義理解的質(zhì)量;
  2. 全局信息的冗余可以通過“預(yù)融合”優(yōu)化:在 LLM 深層階段,全局視覺標(biāo)記的作用顯著減弱,在深層階段反而變得冗余,說明其信息可提前注入對象標(biāo)記中,以大幅減少計(jì)算開銷。

方法設(shè)計(jì)

為此,作者針對像素級細(xì)粒度理解定義了兩種框架,Vision-Object Framework (a)與Object-Only Framework (b):



PixelRefer(Vision-Object Framework)

對于PixelRefer,作者把全局視覺token+像素級區(qū)域token+文本token一起送入 LLM,既保留場景語境,又在對象級上精細(xì)推理。關(guān)鍵在于像素級區(qū)域表征token質(zhì)量足夠高。為此,作者提出尺度自適應(yīng)對象分詞器(Scale-Adaptive Object Tokenizer, SAOT) 來生成精確、緊湊、語義豐富的對象表示。

SAOT 圍繞兩個設(shè)計(jì):(i)小目標(biāo)容易在patch化后丟失細(xì)節(jié);(ii)大目標(biāo)的特征冗余嚴(yán)重

核心做法分三步:

  1. 動態(tài)尺度處理(Dynamic Object Processing)。按像素級區(qū)域大小自適應(yīng)地放大小物體、縮小大物體,并進(jìn)行上下文擴(kuò)展(在目標(biāo)周圍留出一定背景),保證既不丟細(xì)節(jié)也不過度冗余。隨后通過共享視覺編碼器取到區(qū)域級特征。
  2. 位置感知的掩碼特征抽取(Mask Feature + Relative Positional Encoding)。對區(qū)域內(nèi)的有效特征做掩碼并疊加相對坐標(biāo)投影,形成位置感知的對象token,為后續(xù)推理提供“這片語義在圖像哪里”的線索。作者還為被裁剪/擴(kuò)展后的區(qū)域加入相對位置編碼來緩解對齊歧義,使對象token具備空間感知。
  3. 冗余聚合(Abundant Feature Aggregation)。對大/同質(zhì)區(qū)域里高度相似的token,采用k-means 聚類合并,只保留n 個代表性token,既壓縮冗余又保留多視角細(xì)節(jié)。這一步實(shí)證上顯著降低了對象內(nèi)部token的相似度,提高了表示“緊致度”。




PixelRefer-Lite (Object-Only Framework)

該變體僅使用對象標(biāo)記進(jìn)行 LLM 推理,借助對象中心信息融合模塊(Object-Centric Infusion Module, OCI)將全局特征在前處理階段融合入對象表示中。通過 Local-to-Object 和 Global-to-Object Attention,使目標(biāo)的表征同時具備細(xì)節(jié)感知與全局語義,從而實(shí)現(xiàn)更完整的上下文融合。這樣一來,推理階段無需再使用全局視覺標(biāo)記,顯著降低顯存與時間消耗,同時保持語義一致性與理解精度。



PixelRefer-Lite 實(shí)現(xiàn)了一個高效的推理框架,在保持高性能的同時將推理速度提升約 2–3 倍。

數(shù)據(jù)集

作者收集并開源了用于訓(xùn)練的兩類數(shù)據(jù)集,分別是Foundational Object Perception(140萬樣本):涵蓋物體、部件、時序關(guān)系的識別與描述以及Visual Instruction Tuning(80萬樣本):覆蓋區(qū)域QA、視頻QA、多對象關(guān)系與未來事件預(yù)測QA。



性能結(jié)果

  • 對于圖像像素級細(xì)粒度理解benchmark



PixelRefer在多個圖像理解benchmark上已達(dá)到SOTA水平,不論是簡單的區(qū)域識別還是詳細(xì)理解,已成為最先進(jìn)的模型,特別是在reasoning場景下,更是展現(xiàn)出了突出優(yōu)勢。

  • 對于視頻像素級細(xì)粒度理解benchmark



在經(jīng)典的VideoRefer-Bench上,不論是視頻區(qū)域的caption還是QA,均取得了領(lǐng)先性能,展現(xiàn)了通用而又全面的能力。

  • 對于推理時間與效率的計(jì)算



在基于圖片的benchmark DLC-Bench和基于視頻的benchmark上HC-STVG上均進(jìn)行了測評,輕量版的PixelRefer-Lite-2B模型有較大的領(lǐng)先優(yōu)勢,特別是在視頻上,相較于DAM-3B,推理時間縮短了約4倍,顯存占用減少了2倍。

  • 消融實(shí)驗(yàn):Scale-adaptive Object TokenizervsMaskPooling



  • 相較于之前簡單maskpooling的做法,作者提出的Scale-adaptive Object Tokenizer模塊有明顯的提升,特別是在小目標(biāo)理解上,在LVIS和DLC-Bench上均提升了十幾個點(diǎn)。

  • 消融實(shí)驗(yàn):對于區(qū)域token的表征個數(shù)



研究意義與總結(jié)

PixelRefer的出現(xiàn),標(biāo)志著AI視覺理解從“看懂一張圖”邁向“理解世界的細(xì)節(jié)動態(tài)”,為多模態(tài)大模型的精細(xì)化視覺理解提供了新的方向。應(yīng)用前景包括:

  • 自動駕駛的時序場景識別
  • 醫(yī)療影像的病灶級理解
  • 智能視頻剪輯與監(jiān)控
  • 多模態(tài)對話與人機(jī)交互

未來的多模態(tài)AI,不僅會“看見世界”,更會理解世界的關(guān)系。PixelRefer的提出,正是通向通用視覺智能的一塊關(guān)鍵拼圖。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
王雷李小萌露餡!出席活動冷臉互不理睬 原來恩愛只是“遮羞布”

王雷李小萌露餡!出席活動冷臉互不理睬 原來恩愛只是“遮羞布”

好賢觀史記
2025-12-18 12:44:59
張國強(qiáng):被前妻嫌窮,40歲二婚帶子娶郭京飛舊愛,如今苦盡甘來

張國強(qiáng):被前妻嫌窮,40歲二婚帶子娶郭京飛舊愛,如今苦盡甘來

白面書誏
2025-12-15 14:11:04
全球首條!人形機(jī)器人批量上崗寧德時代電池產(chǎn)線 單日工作量較人工提升3倍

全球首條!人形機(jī)器人批量上崗寧德時代電池產(chǎn)線 單日工作量較人工提升3倍

財(cái)聯(lián)社
2025-12-18 16:05:06
特朗普,突發(fā)!美聯(lián)儲,降息大消息!美股、中概股爆發(fā)!

特朗普,突發(fā)!美聯(lián)儲,降息大消息!美股、中概股爆發(fā)!

證券時報(bào)e公司
2025-12-19 07:51:25
從“寧王”到“易中天”,時代的“魚群”在遷徙

從“寧王”到“易中天”,時代的“魚群”在遷徙

錦緞研究院
2025-12-19 07:51:04
故宮一件我一件的含金量又上升了,南京博物館藏品細(xì)節(jié)越挖多了!

故宮一件我一件的含金量又上升了,南京博物館藏品細(xì)節(jié)越挖多了!

你食不食油餅
2025-12-18 02:04:53
唏噓?中超再無韓國教練!4大名帥1年內(nèi)全離任,本土少帥已成主流

唏噓?中超再無韓國教練!4大名帥1年內(nèi)全離任,本土少帥已成主流

我愛英超
2025-12-18 17:05:09
什么情況?NBA中文官網(wǎng)和NBA官網(wǎng)均顯示李凱爾國籍已為美國

什么情況?NBA中文官網(wǎng)和NBA官網(wǎng)均顯示李凱爾國籍已為美國

懂球帝
2025-12-18 11:18:56
一夜兩場大!奪冠熱門慘遭3連敗,沈梓捷傷情出爐,北控遭重創(chuàng)

一夜兩場大。Z冠熱門慘遭3連敗,沈梓捷傷情出爐,北控遭重創(chuàng)

老吳說體育
2025-12-19 00:23:19
血虧!被分走2500萬+每月給8000撫養(yǎng)費(fèi),前冠軍后衛(wèi)離婚被榨干

血虧!被分走2500萬+每月給8000撫養(yǎng)費(fèi),前冠軍后衛(wèi)離婚被榨干

球童無忌
2025-12-18 12:39:31
官方:2026年歐美杯將于3月28日2點(diǎn)在卡塔爾盧賽爾體育場舉行

官方:2026年歐美杯將于3月28日2點(diǎn)在卡塔爾盧賽爾體育場舉行

懂球帝
2025-12-18 21:34:33
沒有商量余地,中國直接收回,17萬日本人淚奔,高市闖禍了!

沒有商量余地,中國直接收回,17萬日本人淚奔,高市闖禍了!

云景侃記
2025-12-18 19:31:26
重慶江北區(qū)藍(lán)天救援隊(duì)隊(duì)員李舟因病離世,年僅36歲,隊(duì)友追憶:他率直爽朗,出任務(wù)時總是沖在前面

重慶江北區(qū)藍(lán)天救援隊(duì)隊(duì)員李舟因病離世,年僅36歲,隊(duì)友追憶:他率直爽朗,出任務(wù)時總是沖在前面

極目新聞
2025-12-18 22:07:09
印度打造滑雪場游客帶裝備朝圣!到現(xiàn)場傻眼:帶一點(diǎn)雪的大土坡?

印度打造滑雪場游客帶裝備朝圣!到現(xiàn)場傻眼:帶一點(diǎn)雪的大土坡?

環(huán)球趣聞分享
2025-12-18 14:10:05
21號就是冬至了!為什么說今年的冬至可不一般,60年一遇?

21號就是冬至了!為什么說今年的冬至可不一般,60年一遇?

阿天愛旅行
2025-12-17 00:16:32
南海撞機(jī)王偉成功跳傘,咋10萬人都找不到他?直到20多年后才明白

南海撞機(jī)王偉成功跳傘,咋10萬人都找不到他?直到20多年后才明白

鶴羽說個事
2025-12-12 14:31:49
Shams:加內(nèi)特以全新身份重返森林狼,21號球衣也將舉行退役儀式

Shams:加內(nèi)特以全新身份重返森林狼,21號球衣也將舉行退役儀式

懂球帝
2025-12-18 23:20:23
1940年,陳賡把戰(zhàn)壕挖到2米深,劉伯承拍桌大怒:你在自掘墳?zāi)!陳賡:這是給鬼子修的墳!

1940年,陳賡把戰(zhàn)壕挖到2米深,劉伯承拍桌大怒:你在自掘墳?zāi)!陳賡:這是給鬼子修的墳!

史海孤雁
2025-12-17 16:50:15
1984年他一聲令下,把老山幾千噸炮彈當(dāng)水潑,2019年葬禮現(xiàn)場,昔日部下已是軍委副主席,含淚送別這位鐵血師長!

1984年他一聲令下,把老山幾千噸炮彈當(dāng)水潑,2019年葬禮現(xiàn)場,昔日部下已是軍委副主席,含淚送別這位鐵血師長!

史海孤雁
2025-12-17 16:50:24
3-7不敵韓國隊(duì)!冰壺混雙落選賽:中國隊(duì)遺憾無緣米蘭冬奧會

3-7不敵韓國隊(duì)!冰壺混雙落選賽:中國隊(duì)遺憾無緣米蘭冬奧會

全景體育V
2025-12-19 06:28:59
2025-12-19 09:12:49
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
11950文章數(shù) 142513關(guān)注度
往期回顧 全部

科技要聞

2025新一代人工智能創(chuàng)業(yè)大賽總決賽收官

頭條要聞

牛彈琴:戰(zhàn)機(jī)又被照射后日本急了 有人第一個想到中國

頭條要聞

牛彈琴:戰(zhàn)機(jī)又被照射后日本急了 有人第一個想到中國

體育要聞

紐約尼克斯,板正的球隊(duì)

娛樂要聞

絲芭放大招了!實(shí)名舉報(bào)鞠婧祎經(jīng)濟(jì)犯罪

財(cái)經(jīng)要聞

尹艷林:呼吁加快2.5億新市民落戶進(jìn)程

汽車要聞

在零下30℃的考場里 凡爾賽C5 X和508L拿到了"穩(wěn)"的證明

態(tài)度原創(chuàng)

家居
藝術(shù)
房產(chǎn)
數(shù)碼
公開課

家居要聞

高端私宅 理想隱居圣地

藝術(shù)要聞

馬世曉書法技藝引爭議,筆力柔弱令人難以理解。

房產(chǎn)要聞

搶藏瘋潮!封關(guān)時代,?陧斏萃跽▔狠S,傳世資產(chǎn)即刻登場!

數(shù)碼要聞

蘋果確認(rèn)14英寸M5 MacBook Pro采用易更換電池設(shè)計(jì) 自助維修支持同步上線

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版