国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

ApdativeNN:建模類人自適應(yīng)感知機制,突破機器視覺不可能三角

0
分享至



視覺是人類理解復(fù)雜物理世界的重要方式。讓計算機具備視覺感知與認(rèn)知的能力,是人工智能的主要研究問題之一,對多模態(tài)基礎(chǔ)模型、具身智能、醫(yī)療 AI 等重要領(lǐng)域具有關(guān)鍵支撐作用。過去幾十年間,計算機視覺取得了顯著突破,已在圖像識別、目標(biāo)檢測、多模態(tài)理解等多個任務(wù)上接近甚至超越人類專家水平。然而,當(dāng)前的高精度模型在實際落地中常面臨較大挑戰(zhàn):它們的推理過程往往需要激活上億參數(shù)來處理高分辨率圖像或視頻、以解決復(fù)雜和挑戰(zhàn)性的視覺問題,導(dǎo)致功耗、存儲需求和響應(yīng)時延急劇上升。這一瓶頸使得它們難以部署在算力、能耗、存儲等資源高度受限的實際系統(tǒng)中(如機器人、自動駕駛、移動設(shè)備或邊緣終端等),甚至在醫(yī)療、交通等場景下由于延遲決策危害生命安全。另一方面,大型模型龐大的推理能耗在也帶來了大規(guī)模部署的環(huán)境可持續(xù)性問題。

上述挑戰(zhàn)的一個重要原因在于現(xiàn)有視覺模型普遍采用了全局表征學(xué)習(xí)范式:一次性并行處理整幅圖像或視頻的所有像素、提取全部對應(yīng)特征,再應(yīng)用于具體任務(wù)。這種 “全局并行計算” 范式使得模型計算復(fù)雜度隨輸入尺寸呈至少平方或立方增長,逐漸形成了一個日益嚴(yán)峻的能效瓶頸:信息豐富的高分辨率時空輸入、性能領(lǐng)先的大型模型、高效快速推理,三者難以同時滿足。這一挑戰(zhàn)正在成為制約視覺智能走向大規(guī)模、可部署落地、低碳環(huán)保的公認(rèn)難題。



圖1 當(dāng)前計算機視覺范式所面臨的能效瓶頸

人類視覺系統(tǒng)為突破上述瓶頸提供了重要啟示:在觀察復(fù)雜環(huán)境時,人眼不會一次性處理全部視覺信息,而是通過一系列 “注視” 動作主動、選擇性地采樣關(guān)鍵區(qū)域,以小范圍高分辨率的感知逐步拼接出對物理世界中有用信息的認(rèn)知。這種先進的機制能在龐雜的信息流中快速篩取要點,大幅降低計算開銷,使得人類高度復(fù)雜的視覺系統(tǒng)即便在資源受限的前提下依然能夠高效、快速運行。無論外界場景多么復(fù)雜,人類視覺的能耗主要取決于注視帶寬與注視次數(shù),而非全局像素量。早在 2015 年,LeCun, Bengio, Hinton 便在《Nature》綜述論文 “Deep Learning” 中指出,未來的 AI 視覺系統(tǒng)應(yīng)具備類人的、任務(wù)驅(qū)動的主動觀察能力。然而近十年來,這一方向仍缺乏系統(tǒng)性研究。



圖2 人類視覺系統(tǒng)的主動自適應(yīng)感知策略

2025 年 11 月,清華大學(xué)自動化系宋士吉、黃高團隊在《自然?機器智能》(Nature Machine Intelligence)上發(fā)表了論文《Emulating human-like adaptive vision for efficient and flexible machine visual perception》(模擬人類自適應(yīng)視覺,實現(xiàn)高效靈活的機器視覺感知)。該研究提出了AdaptiveNN 架構(gòu),通過借鑒人類 “主動自適應(yīng)視覺” 的機制,將視覺感知建模為由粗到精的最優(yōu)序貫決策問題:逐步定位關(guān)鍵區(qū)域、累積多次注視信息,并在信息足夠完成任務(wù)時主動終止觀察。在理論上,該研究通過結(jié)合表征學(xué)習(xí)與自獎勵強化學(xué)習(xí),給出了 AdaptiveNN 所面臨的離散 - 連續(xù)混合優(yōu)化問題的無需額外監(jiān)督的端到端求解方法。在涵蓋 9 類任務(wù)的廣泛實驗中,AdaptiveNN 在保持精度的同時實現(xiàn)了最高 28 倍的推理成本降低,可在線動態(tài)調(diào)整其行為以適配不同任務(wù)需求與算力約束,同時,其基于注視路徑的推理機制顯著提升了可解釋性。AdaptiveNN 展現(xiàn)出構(gòu)建高效、靈活且可解釋的計算機視覺新范式的潛力。另一方面,AdaptiveNN 的感知行為在多項測試中與人類接近,也為未來探索人類視覺認(rèn)知機制的關(guān)鍵問題提供了新的見解和研究工具。



  • 論文標(biāo)題:Emulating human-like adaptive vision for efficient and flexible machine visual perception
  • 論文鏈接:https://www.nature.com/articles/s42256-025-01130-7

AdaptiveNN:類人主動感知架構(gòu)



借助這一機制,AdaptiveNN 能夠在保證高精度的同時顯著降低計算量,實現(xiàn)“看得清,也看得省”。它使神經(jīng)網(wǎng)絡(luò)具備了類人式的主動感知,從而突破了傳統(tǒng)視覺模型在效率與效果之間的權(quán)衡瓶頸。

值得注意的是,AdaptiveNN 在設(shè)計上具有較強的兼容性和靈活性,適用于多種不同的深度神經(jīng)網(wǎng)絡(luò)基礎(chǔ)架構(gòu)(如卷積網(wǎng)絡(luò)、Transformer等)和多種類型的任務(wù)(如純視覺感知、視覺-語言多模態(tài)聯(lián)合建模等)。



圖3 AdaptiveNN的網(wǎng)絡(luò)架構(gòu)和推理過程

理論創(chuàng)新:自激勵強化學(xué)習(xí)驅(qū)動的主動感知行為學(xué)習(xí)

AdaptiveNN 的訓(xùn)練過程同時涉及連續(xù)變量(如從注視區(qū)域中提取特征)與離散變量(如決定下一次注視位置)的優(yōu)化,傳統(tǒng)反向傳播算法難以直接處理這一混合問題。為此,研究團隊在理論上提出了面向離散 - 連續(xù)混合優(yōu)化問題的端到端求解方法,使 AdaptiveNN 能夠在統(tǒng)一框架下簡單易行地完成整體訓(xùn)練。具體而言,從期望優(yōu)化目標(biāo)出發(fā),對整體損失函數(shù) L(θ) 進行分解,AdaptiveNN 的端到端優(yōu)化過程可自然地分解為兩部分



其中第一項為表征學(xué)習(xí)目標(biāo)(representation learning),對應(yīng)于從注視區(qū)域中提取任務(wù)相關(guān)的特征;第二項為自激勵強化學(xué)習(xí)目標(biāo)(self-rewarding reinforcement learning),對應(yīng)于優(yōu)化注視位置的分布,驅(qū)使模型的主動注視行為實現(xiàn)最大化的任務(wù)收益。這一理論結(jié)果揭示了 AdaptiveNN 的內(nèi)在學(xué)習(xí)規(guī)律:主動感知的優(yōu)化本質(zhì)上是表征學(xué)習(xí)與強化學(xué)習(xí)的統(tǒng)一



圖4 強化學(xué)習(xí)驅(qū)動的端到端主動視覺的理論框架

實驗驗證:高效視覺感知,類人視覺行為

  • 性能提升顯著:在使用相同主干網(wǎng)絡(luò)(如 DeiT-S、ResNet-50)的情況下,AdaptiveNN-DeiT-S 和 AdaptiveNN-ResNet-50 分別以2.86 GFLOPs 與 3.37 GFLOPs的平均計算量,取得與傳統(tǒng)靜態(tài)模型相當(dāng)甚至更優(yōu)的準(zhǔn)確率(81.6% / 79.1%),實現(xiàn)了 5.4× 與 3.6× 的計算節(jié)省。
  • 可解釋性增強:AdaptiveNN 的注視軌跡自動聚焦于類別判別性區(qū)域,例如動物的頭部、樂器的關(guān)鍵結(jié)構(gòu)、咖啡機的旋鈕與噴嘴等。當(dāng)目標(biāo)較小或遠(yuǎn)離攝像機時,模型會自適應(yīng)地延長觀察序列,主動調(diào)整注視步數(shù)以獲得更精確的判斷。這種 “由粗到細(xì)、按需注視” 的策略,與人類視覺的逐步注視過程高度一致。



圖5 ImageNet視覺感知實驗結(jié)果

為了進一步驗證 AdaptiveNN 的泛化與精細(xì)感知能力,研究團隊在六個細(xì)粒度視覺識別任務(wù)(CUB-200、NABirds、Oxford-IIIT Pet、Stanford Dogs、Stanford Cars、FGVC-Aircraft)上進行了系統(tǒng)評估。

  • AdaptiveNN 在保持精度基本不變甚至略有提升的情況下,實現(xiàn)了5.8×–8.2× 的計算量節(jié)省,顯著超越傳統(tǒng)靜態(tài)視覺模型的性能–能效上限。
  • 通過可視化(Fig. A1b–A1e),可以看到模型自發(fā)聚焦于任務(wù)判別性區(qū)域 —— 如鳥類的喙部、犬類的面部、汽車的燈組與航空器的螺旋槳 —— 而無需任何顯式的定位監(jiān)督。



圖6 細(xì)粒度視覺識別任務(wù)實驗結(jié)果

AdaptiveNN 在空間注視位置任務(wù)難度判斷兩個層面,都展現(xiàn)出與人類視覺高度一致的自適應(yīng)行為。定量結(jié)果表明,無論是 “看哪里”、還是 “覺得什么難”,模型的感知策略都與人類極為相似。在 “視覺圖靈測試” 中,人類受試者幾乎無法區(qū)分模型與真實人類的凝視軌跡。

更值得關(guān)注的是,這一成果對認(rèn)知科學(xué)的研究具有啟發(fā)意義。AdaptiveNN 的結(jié)果不僅為理解人類視覺行為的關(guān)鍵認(rèn)知科學(xué)問題(例如 “視覺能力的形成究竟源于先天機制還是后天學(xué)習(xí)”)提供了新的啟發(fā),也展示了其作為一種通用計算模型的潛力。未來,AdaptiveNN 有望用于模擬和檢驗人類的注意分配、感知學(xué)習(xí)、以及復(fù)雜任務(wù)中的視覺決策機制,為將來認(rèn)知科學(xué)方面的研究提供了潛在的定量工具。



圖7 AdaptiveNN與人類視覺感知行為的一致性測試

從視覺感知到邁向高效具身推理

在實驗驗證中,研究團隊進一步將 AdaptiveNN 應(yīng)用于具身智能的基礎(chǔ)模型(視覺 - 語言 - 行為模型,VLA)上結(jié)果表明,該框架在復(fù)雜操作場景中顯著提升了具身基礎(chǔ)模型的推理與感知效率,在保持任務(wù)成功率的同時將計算開銷大幅降低 4.4-5.9 倍。這一成果為解決具身智能系統(tǒng)長期面臨的效率瓶頸提供了新的思路與技術(shù)路徑。



圖8 ApdativeNN應(yīng)用于VLA具身任務(wù)的實驗結(jié)果

清華大學(xué)自動化系博士生王語霖、樂洋、樂陽為論文共同第一作者,宋士吉教授與黃高副教授為共同通訊作者。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
央視曝光固態(tài)電池重大消息!

央視曝光固態(tài)電池重大消息!

電動知家
2025-12-18 10:41:13
江蘇“三溝一河”領(lǐng)導(dǎo)人在洋河歷史性聚首

江蘇“三溝一河”領(lǐng)導(dǎo)人在洋河歷史性聚首

牛鍋巴小釩
2025-12-18 14:16:39
太突然:湖南一知名大醫(yī)院破產(chǎn)

太突然:湖南一知名大醫(yī)院破產(chǎn)

時刻
2025-12-19 10:48:45
46歲國盾量子董事長意外去世

46歲國盾量子董事長意外去世

澎湃新聞
2025-12-19 00:33:16
高市早苗與托卡耶夫會晤,日本和中亞峰會如期舉行,咱們不必?fù)?dān)心

高市早苗與托卡耶夫會晤,日本和中亞峰會如期舉行,咱們不必?fù)?dān)心

愛意隨風(fēng)起呀
2025-12-19 06:59:06
花生再次被關(guān)注!調(diào)查發(fā)現(xiàn):糖尿病常吃花生,不過半年或有6好處

花生再次被關(guān)注!調(diào)查發(fā)現(xiàn):糖尿病常吃花生,不過半年或有6好處

蜉蝣說
2025-11-20 14:40:39
每體:老佛爺想立即解雇阿隆索,但身邊人士說服他不讓其下課

每體:老佛爺想立即解雇阿隆索,但身邊人士說服他不讓其下課

懂球帝
2025-12-19 10:33:43
柬埔寨意外逮捕22名中國人,本去救英國人,卻發(fā)現(xiàn)背后一個園區(qū)!

柬埔寨意外逮捕22名中國人,本去救英國人,卻發(fā)現(xiàn)背后一個園區(qū)!

百態(tài)人間
2025-12-18 16:45:40
別瞧不起200萬存款:在中國,能拿出這筆錢你已是富人

別瞧不起200萬存款:在中國,能拿出這筆錢你已是富人

流蘇晚晴
2025-12-18 18:34:22
唱衰北京樓市制造恐慌遭打擊,大量購房者因此受到影響

唱衰北京樓市制造恐慌遭打擊,大量購房者因此受到影響

映射生活的身影
2025-12-18 17:53:06
美國最頂級戰(zhàn)略家,為何集體錯判中國?他們漏算了一個隱藏變量

美國最頂級戰(zhàn)略家,為何集體錯判中國?他們漏算了一個隱藏變量

遠(yuǎn)方風(fēng)林
2025-12-18 23:47:18
重要賽事!12月19日晚19:30!中央5套CCTV5、CCTV5+直播節(jié)目表

重要賽事!12月19日晚19:30!中央5套CCTV5、CCTV5+直播節(jié)目表

皮皮觀天下
2025-12-19 07:54:51
關(guān)于楊蘭蘭,終于破解出幾條她的關(guān)鍵信息

關(guān)于楊蘭蘭,終于破解出幾條她的關(guān)鍵信息

詩意世界
2025-12-19 12:00:03
中國富豪在美生100個孩子,“選妃”條件苛刻,有人受不了卷8億跑路

中國富豪在美生100個孩子,“選妃”條件苛刻,有人受不了卷8億跑路

翰飛觀事
2025-12-18 21:26:49
辛選員工集體跑路,辛巴在崩潰邊緣

辛選員工集體跑路,辛巴在崩潰邊緣

電商派Pro
2025-12-18 10:05:26
哈佛大學(xué)驚人發(fā)現(xiàn):世界上最健康長壽的運動,竟然簡單到一學(xué)就會

哈佛大學(xué)驚人發(fā)現(xiàn):世界上最健康長壽的運動,竟然簡單到一學(xué)就會

原來仙女不講理
2025-12-17 17:16:38
韓國海警舉旗沖鋒蘇巖礁!強拆中方設(shè)施反被圍,中方貼臉開大了

韓國海警舉旗沖鋒蘇巖礁!強拆中方設(shè)施反被圍,中方貼臉開大了

觀察者小海風(fēng)
2025-12-18 19:48:04
一旦發(fā)生戰(zhàn)爭,江蘇地區(qū)的居民需要去哪里避難?

一旦發(fā)生戰(zhàn)爭,江蘇地區(qū)的居民需要去哪里避難?

阿芒娛樂說
2025-12-19 04:45:57
泰國軍方發(fā)言人:鏟平所有電詐園區(qū)

泰國軍方發(fā)言人:鏟平所有電詐園區(qū)

Ck的蜜糖
2025-12-16 15:25:09
預(yù)定普斯卡什獎?阿拉伯杯決賽驚現(xiàn)超遠(yuǎn)吊射世界波,對方門將被打懵

預(yù)定普斯卡什獎?阿拉伯杯決賽驚現(xiàn)超遠(yuǎn)吊射世界波,對方門將被打懵

側(cè)身凌空斬
2025-12-19 05:19:49
2025-12-19 13:23:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
11953文章數(shù) 142513關(guān)注度
往期回顧 全部

科技要聞

2025新一代人工智能創(chuàng)業(yè)大賽總決賽收官

頭條要聞

媒體:美方官宣史上對臺單筆最大軍售 野心藏不住了

頭條要聞

媒體:美方官宣史上對臺單筆最大軍售 野心藏不住了

體育要聞

沒有塔圖姆,還有塔禿姆

娛樂要聞

曲協(xié)表態(tài)僅6天,郭德綱擔(dān)心的事還是發(fā)生

財經(jīng)要聞

非法集資911億!"金融大鱷"終審被判無期

汽車要聞

最便宜GLS 2026款奔馳GLS經(jīng)典版售96.8萬

態(tài)度原創(chuàng)

房產(chǎn)
健康
親子
手機
教育

房產(chǎn)要聞

萬科·三亞嘉瀾地,萬科高端旅居系1號作品全球發(fā)布

這些新療法,讓化療不再那么痛苦

親子要聞

很多家長問支具鋁板是什么,名字叫指鋁板,網(wǎng)上都能搜到

手機要聞

蘋果客服回應(yīng)“內(nèi)存用完致iPhone損壞”:建議及時清理并備份數(shù)據(jù)

教育要聞

“考考考老師的法寶”應(yīng)該休矣

無障礙瀏覽 進入關(guān)懷版