国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

VFMTok: Visual Foundation Models驅(qū)動的Tokenizer時代來臨

0
分享至



視覺 Tokenizer 的困境與破局

近年來,自回歸(Autoregressive, AR)模型在語言生成領(lǐng)域的成功激發(fā)了其在圖像生成領(lǐng)域的應(yīng)用,涌現(xiàn)出 DALL-E、Parti、VAR 和 LlamaGen 等代表性工作。這類技術(shù)高度依賴于 VQGAN 等視覺 Tokenizer,它負責將高維、冗余的像素空間映射到一個低維、緊湊的離散潛在空間,是決定生成模型上限的基石。

然而,以 VQGAN 為代表的傳統(tǒng) Tokenizer 通常需要從零開始訓(xùn)練,其訓(xùn)練目標由像素級重建損失函數(shù)主導(dǎo),導(dǎo)致其產(chǎn)生的潛在空間:

  1. 富含低層細節(jié)特征卻缺乏高層語義信息:能很好地還原圖像細節(jié),但潛在編碼本身缺乏高層語義信息。
  2. 較高的潛在空間冗余:VAGAN 基于圖像塊 (patch) 逐一進行量化,而圖像中的物體通常是不規(guī)則的區(qū)域,基于圖像塊的量化降低了 tokens 的編碼效率。
  3. 無視結(jié)構(gòu)特性的表征:潛在空間的組織較為混亂,使得生成模型不僅需要更長的訓(xùn)練時間來學(xué)習(xí)其潛在空間分布,而且往往得借助 CFG(Classifier-Free Guidance, CFG)等技巧來實現(xiàn)高保真度的圖像生成,增加了模型推理時間。

與此同時,預(yù)訓(xùn)練的視覺基礎(chǔ)模型(Visual Foundation Models, VFMs),如 CLIP、DINOv2、SigLIP2 等,在提取豐富語義且可泛化視覺特征方面表現(xiàn)出了強大的能力。這些模型通過自監(jiān)督或語言監(jiān)督的方式進行訓(xùn)練,它們能夠有效抽象出圖像中的高層語義信息,因此這些預(yù)訓(xùn)練的視覺基礎(chǔ)模型大多應(yīng)用于圖像內(nèi)容理解任務(wù)當中。直接將其應(yīng)用于圖像重建和生成任務(wù)上卻鮮有人探索。

基于此,香港大學(xué) CVMI Lab 和階躍星辰 AIGC 團隊提出一個大膽假設(shè):原本為視覺理解任務(wù)設(shè)計的預(yù)訓(xùn)練視覺基礎(chǔ)模型,其潛在特征是否也能直接作為圖像重建與生成的魯棒結(jié)構(gòu)化表征?

為了驗證這一猜想,我們探索了一個基礎(chǔ)視覺模型新的應(yīng)用新方向:用凍結(jié)的預(yù)訓(xùn)練視覺基礎(chǔ)模型構(gòu)造離散的視覺 Tokenizer,將其應(yīng)用于圖像重建和自回歸圖像生成任務(wù)上。

我們發(fā)現(xiàn),相比于傳統(tǒng)的視覺 Tokenizer 模型,視覺基礎(chǔ)模型驅(qū)動的圖像 Tokenizer 在這兩項任務(wù)上均表現(xiàn)出優(yōu)異的性能。



  • 論文標題: Vision Foundation Models as Effective Visual Tokenizers for Autoregressive Generation
  • 論文地址: https://arxiv.org/pdf/2507.08441
  • Huggingface: https://huggingface.co/papers/2507.08441
  • Github:
  • https://github.com/CVMI-Lab/VFMTok.git (Vanilla version)
  • https://github.com/CVMI-Lab/VFMTok-RAR.git (Ultra version)

探索性發(fā)現(xiàn)

為了驗證視覺基礎(chǔ)模型 (VFMs) 能否構(gòu)造高質(zhì)量的視覺 Tokenizer,我們首次嘗試使用不同的凍結(jié)的預(yù)訓(xùn)練基礎(chǔ)視覺模型 (VFMs) 提取圖像特征,將其送入 VQGAN 的編碼器中進行端到端訓(xùn)練。訓(xùn)練階段只有量化器(quantilizer)和解碼器中的參數(shù)會進行更新,隨后用它完成自回歸圖像生成任務(wù)。

實驗表明:凍結(jié)的視覺基礎(chǔ)模型 (VFMs) 提取的圖像特征可以直接用于圖像重建,且訓(xùn)練好的視覺 Tokenizer 在自回歸圖像生成任務(wù)上的表現(xiàn)優(yōu)于傳統(tǒng)的視覺 Tokenizer 模型。

這一發(fā)現(xiàn)凸顯了預(yù)訓(xùn)練視覺基礎(chǔ)模型 (VFMs) 構(gòu)造高質(zhì)量視覺 Tokenizer 的巨大潛力。



核心思想

基于我們的探索性發(fā)現(xiàn):凍結(jié)的視覺基礎(chǔ)模型 (VFMs) 可以直接構(gòu)造高質(zhì)量的視覺 Tokenizer 并進行端到端地訓(xùn)練,我們對構(gòu)造的視覺 Tokenizer 的結(jié)構(gòu)進行進一步的優(yōu)化 —— 利用視覺基礎(chǔ)模型 (VFMs)提取圖像的多層特征 (Multi-level Features Extraction),這有助于同時捕獲圖像中的低層細節(jié)特征和高層語義信息。

同時,我們注意到現(xiàn)有的量化機制 (quantization) 都是對圖像塊 (patch) 逐一量化,而圖像中物體一般都是形狀不規(guī)則的,因此我們設(shè)計了區(qū)域自適應(yīng)的量化 (Region-Adaptive Quantization) 方案。該方案可以進一步降低潛在特征空間的冗余度,提高視覺 tokens 的利用效率。

此外,因為視覺基礎(chǔ)模型的參數(shù)是凍結(jié)的,因此在重建圖像內(nèi)容的同時,我們也設(shè)計了語義特征重建的目標函數(shù) (Semantic Reconstruction Objective),來提升視覺 Tokenizer 的語義保真度。我們將基于視覺基礎(chǔ)模型 (VFMs) 的 Tokenizer 稱之為VFMTok。



VFMTok 架構(gòu)圖

關(guān)鍵技術(shù)細節(jié)

  • 多層圖像特征提取 (Multi-level Features Extraction)

為了同時捕獲圖像低層細節(jié)特征和高層語義信息方便圖像重建,VFMTok 采用凍結(jié)的預(yù)訓(xùn)練的視覺基礎(chǔ)模型 (VFMs) 作為編碼器提取多層級語義特征。VFMTok 按照等間隔的方式從預(yù)訓(xùn)練基礎(chǔ)模型 (VFMs) 中提取多層特征 (multi-level features)。

  • 區(qū)域自適應(yīng)量化 (Region-Adaptive Quantization)

為了實現(xiàn)區(qū)域自適應(yīng)量化 (Region-Adaptive Quantization) 機制,VFMTok 通過可學(xué)習(xí)「錨點查詢」(Anchor Queries)結(jié)合可變形注意力機制(Deformable Attention)自適應(yīng)地從多層級特征 (multi-level features) 中進行區(qū)域自適應(yīng)的特征采樣 (Region-Adaptive Sampling)。

這種方式能聚焦于采樣圖像中模式一致的區(qū)域。隨后,VFMToks 對可學(xué)習(xí)「錨點查詢」(Anchor Queries)進行量化 (quantization)。這種方式可以有效提升 token 的利用效率 —— 用更少的 tokens(256)來表征一張圖像。



  • 語義重建目標(Semantic Reconstruction Objective)

因為視覺基礎(chǔ)模型在 Tokenizer 的訓(xùn)練階段參數(shù)是凍結(jié)的,因此 VFMTok 在重建圖像的同時,也會重建凍結(jié)的基礎(chǔ)模型(VFM)最后一層的語義特征。

為了實現(xiàn)這一點,VFMTok 解碼階段設(shè)計了一個共享的輕量級 Vision Transformer(ViT)。這個 ViT 接收區(qū)域自適應(yīng)量化后的 tokens,結(jié)合一個可學(xué)習(xí)的 mask token 以及一組可學(xué)習(xí)的位置編碼(Positional Embedding)作為輸入,分別產(chǎn)生用于圖像重建和語義重建的特征。共享 ViT 的設(shè)計既減少了參數(shù)量又保證了語義保真度。其雙重目標函數(shù)是:





訓(xùn)練完成后,VFMTok 可以被應(yīng)用于圖像自適應(yīng)回歸任務(wù)上,基于 next-token prediction 的方式生成高質(zhì)量的圖像內(nèi)容。

實驗亮點與分析

1.卓越的重建生成質(zhì)量與效率

大量實驗表明,基于視覺基礎(chǔ)模型 (VFMs) 構(gòu)造的視覺 Tokenizer——VFMTok,具備高質(zhì)量、高效率的圖像重建和自回歸圖像生成能力。

  • 更好的圖像重建質(zhì)量:相較于傳統(tǒng)的視覺 Tokenizer,VFMTok 可以用更少的 token 數(shù)量(僅用 256 個)實現(xiàn)更優(yōu)的重建質(zhì)量(0.89 rFID, 215.4 rIS)和更高的碼本利用率 (100%),超越了之前大部分傳統(tǒng)的離散 Tokenizers。



  • 更快的生成訓(xùn)練收斂速度:相比于經(jīng)典的 VQGAN 這類 Tokenizer,VFMTok 能夠顯著提升自回歸模型訓(xùn)練階段的收斂速度 ——訓(xùn)練收斂速度提升了 3 倍。



  • 更好的生成性能:在 ImageNet 256x256 的 class-to-image 生成任務(wù)上,VFMTok-1.4B 模型在參數(shù)量更少、訓(xùn)練迭代次數(shù)更少的情況下,自回歸生成性能超越了同類 LlamaGen-3B。此外,在接入更好的自回歸圖像生成框架 RAR 后,實現(xiàn)了SOTA 的圖像生成性能(gFID: 1.36)。



  • CFG-free 優(yōu)越性:值得注意的是,VFMTok 在有無 CFG 的情況下性能幾乎一致(gFID: 2.07 vs 2.04),而 LlamaGen 則會從 2.19 急劇惡化至 9.38。這證明了其潛在空間具有極強的語義一致性,無需 CFG 即可實現(xiàn)高保真度的 class-to-image 圖像生成,可以進一步減少圖像生成時間。
  • 更快的推理速度:由于 tokens 數(shù)量減半(256 vs. 576),自回歸模型的生成過程長度減半,推理速度因此獲得了約 4 倍的提升。

2.消融實驗的有力證明

僅使用凍結(jié)的 VFM 作為編碼器,線性探針準確率(linear probing)就從 VQGAN 的 23.1% 提升至56.4%。引入?yún)^(qū)域自適應(yīng)量化 (Region-Adaptive Quantization) 和語義特征重建 (Semantic Reconstruction Objective) 后,VFMTok 僅用 256 個 Token 就能在重建質(zhì)量(rFID 0.89 vs 0.95) 上全面超越使用 576 個 Token 的 VQGAN 基線 Tokenizer。



總結(jié)與展望

VFMTok 首次證明了凍結(jié)的視覺基礎(chǔ)模型 (VFMs) 提取的圖像特征能有效用于圖像重建與生成,同時可以提升 Tokenizer 語義表征能力,使自回歸 (AR) 圖像生成模型收斂更快,并能實現(xiàn) CFG-free 的高保真圖像合成。VFMTok 提出的區(qū)域自適應(yīng)量化機制,通過有效利用圖像區(qū)域的固有冗余實現(xiàn)緊湊編碼,在減少視覺 token 數(shù)量的同時提升性能,實現(xiàn)高效且高質(zhì)量的自回歸圖像生成。

大量實驗驗證了 VFMTok 在圖像重建和自回歸生成中的有效性,確立了預(yù)訓(xùn)練視覺基礎(chǔ)模型 (VFMs) 構(gòu)造高質(zhì)量、高效率 Tokenizer 的主導(dǎo)地位。

由此可見,利用 VFM 的先驗知識是構(gòu)建高質(zhì)量潛在空間的必由之路,也是構(gòu)建下一代 Tokenizer 的關(guān)鍵,這比任何從零開始的正則化或約束都更根本、更有效。預(yù)訓(xùn)練視覺基礎(chǔ)模型的巨大潛力值得我們在未來深入挖掘,最終可能探索出一個能夠有效兼容所有生成模型的、語義豐富、高質(zhì)高效的「統(tǒng)一 Tokenizer」。

VFMTok 論文與代碼均已公開,歡迎感興趣的同學(xué)閱讀、復(fù)現(xiàn)以及深入討論。

作者介紹

本文作者主要來自于香港大學(xué) CVMI Lab 和階躍星辰 AIGC 團隊。階躍星辰 AIGC 團隊主要致力于圖像生成底模、圖像編輯底模、世界模型以及 RL 后訓(xùn)練研究和落地。歡迎志同道合的同學(xué)交流和加入,一起為 AIGC 社區(qū)貢獻力量。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
中國的社零增速,已經(jīng)連降了6個月,轉(zhuǎn)負甚至就在眼前

中國的社零增速,已經(jīng)連降了6個月,轉(zhuǎn)負甚至就在眼前

子業(yè)一說財經(jīng)
2025-12-23 15:21:31
烤雞少年承認用“肉寶王”來調(diào)味,廠家人員:是生產(chǎn)25年的合法調(diào)味料,不是添加劑

烤雞少年承認用“肉寶王”來調(diào)味,廠家人員:是生產(chǎn)25年的合法調(diào)味料,不是添加劑

黃河新聞網(wǎng)呂梁頻道
2025-12-23 08:41:41
“這里幾乎就是緬北,只不過沒有電棍”,26歲女生曝團播亂象:作息顛倒月入26塊錢

“這里幾乎就是緬北,只不過沒有電棍”,26歲女生曝團播亂象:作息顛倒月入26塊錢

瀟湘晨報
2025-12-23 17:24:35
死刑!就是給這種人準備的!

死刑!就是給這種人準備的!

鈞言堂
2025-12-23 14:38:14
反轉(zhuǎn)!小洛熙尸檢報告推翻醫(yī)院診斷?熱搜壓不住了,明星紛紛控訴

反轉(zhuǎn)!小洛熙尸檢報告推翻醫(yī)院診斷?熱搜壓不住了,明星紛紛控訴

烏娛子醬
2025-12-23 16:05:55
去日本航班取消,去柬埔寨機票還很好買

去日本航班取消,去柬埔寨機票還很好買

名人茍或
2025-12-23 06:04:32
泰國感謝中方

泰國感謝中方

環(huán)球網(wǎng)資訊
2025-12-23 18:36:33
鄭麗文:在臺灣講“我是中國人”何來原罪

鄭麗文:在臺灣講“我是中國人”何來原罪

揚子晚報
2025-12-23 20:27:17
貪欲膨脹,廣東一原副區(qū)長被雙開!她曾任鎮(zhèn)紀委書記、鎮(zhèn)委書記等職

貪欲膨脹,廣東一原副區(qū)長被雙開!她曾任鎮(zhèn)紀委書記、鎮(zhèn)委書記等職

瀟湘晨報
2025-12-23 10:29:15
柬埔寨國王,72歲了,沒錢沒權(quán),沒結(jié)婚沒孩子,和老母親相依為命

柬埔寨國王,72歲了,沒錢沒權(quán),沒結(jié)婚沒孩子,和老母親相依為命

科普100克克
2025-12-23 17:54:08
明年1月1日起,向好友發(fā)淫穢信息,無論是公開微信群還是私人私聊均違法

明年1月1日起,向好友發(fā)淫穢信息,無論是公開微信群還是私人私聊均違法

觀威海
2025-12-23 09:18:13
政權(quán)倒臺一年后,阿薩德家族被曝在俄羅斯過著“奢華生活”

政權(quán)倒臺一年后,阿薩德家族被曝在俄羅斯過著“奢華生活”

澎湃新聞
2025-12-23 16:42:30
南博父子局:揭秘文物圈最隱秘“家族盜寶隊”

南博父子局:揭秘文物圈最隱秘“家族盜寶隊”

智識漂流
2025-12-23 09:57:17
難以想象!上?!案欢?年花光1300萬,“每頓飯一萬多,出去一次一百多萬……”

難以想象!上?!案欢?年花光1300萬,“每頓飯一萬多,出去一次一百多萬……”

環(huán)球網(wǎng)資訊
2025-12-23 19:51:46
隨著廣東+上海+廣廈全贏球,CBA最新積分榜如下:2隊全勝+2隊全敗

隨著廣東+上海+廣廈全贏球,CBA最新積分榜如下:2隊全勝+2隊全敗

侃球熊弟
2025-12-23 21:41:31
劉嘉玲曝林青霞家中的麻將房掛“東方不敗”照片:坐在她家里面打麻將要嚇死了

劉嘉玲曝林青霞家中的麻將房掛“東方不敗”照片:坐在她家里面打麻將要嚇死了

紅星新聞
2025-12-22 18:29:10
山姆爆火的400克女款羽絨服,打了多少商家的臉?

山姆爆火的400克女款羽絨服,打了多少商家的臉?

娛樂資本論
2025-12-22 11:53:59
福原愛首次回應(yīng)再婚懷孕,現(xiàn)任丈夫正是當年出軌風波中的“橫濱男”

福原愛首次回應(yīng)再婚懷孕,現(xiàn)任丈夫正是當年出軌風波中的“橫濱男”

新民周刊
2025-12-22 15:22:37
《江南春》后續(xù):國家文物局介入,徐湖平和兒子的貓膩藏不住了

《江南春》后續(xù):國家文物局介入,徐湖平和兒子的貓膩藏不住了

葉公子
2025-12-23 19:51:13
收藏家龐萊臣后人談南京博物館:“不能理解,不能接受”

收藏家龐萊臣后人談南京博物館:“不能理解,不能接受”

互聯(lián)網(wǎng)大觀
2025-12-23 12:03:00
2025-12-23 22:47:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
11980文章數(shù) 142518關(guān)注度
往期回顧 全部

科技要聞

慘烈90分鐘!快手驚魂:遭遇最強黑產(chǎn)攻擊

頭條要聞

特朗普稱出于國家安全"必須拿下格陵蘭島" 又扯上中俄

頭條要聞

特朗普稱出于國家安全"必須拿下格陵蘭島" 又扯上中俄

體育要聞

楊瀚森連續(xù)5場DNP!開拓者遭活塞雙殺

娛樂要聞

朱孝天回應(yīng)阿信感謝,自曝沒再收到邀約

財經(jīng)要聞

祥源系百億產(chǎn)品爆雷 浙金中心18人被拘

汽車要聞

四款新車集中發(fā)布 星途正式走進3.0時代

態(tài)度原創(chuàng)

藝術(shù)
教育
數(shù)碼
時尚
房產(chǎn)

藝術(shù)要聞

朱總理的詩句驚艷眾人,張家界竟藏有這樣的美景!

教育要聞

成都這所學(xué)校的課堂變樣了:AI在語文課當“辯手”,在體育課做“私教”

數(shù)碼要聞

銘凡BD895i SE主板開售:自帶AMD銳龍9 7945HX處理器,2899元

今年流行“毛衣+外套”,這樣穿時髦又好看!

房產(chǎn)要聞

獨家猛料!16.1億,浙江老板搶下雅居樂清水灣261畝重磅宅地!

無障礙瀏覽 進入關(guān)懷版