国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

剛剛,DeepSeek多模態(tài)技術范式公布,以視覺原語思考

0
分享至



機器之心編輯部

雖遲但到,五一長假將至,DeepSeek 給大家公開新技術了。

昨天,DeepSeek 陳小康一個 X 消息,讓大家開始關注 DeepSeek 的多模態(tài)。



之后,一些用戶就已經(jīng)可以在 DeepSeek 網(wǎng)頁端和 App 上體驗其多模態(tài)能力。

而就在剛剛,DeepSeek 在 Github 上正式發(fā)布了多模態(tài)模型,公布了背后的技術報告。



實打?qū)嵉男迈r出爐!而且是開創(chuàng)性的推理范式。



  • 項目地址:https://github.com/deepseek-ai/Thinking-with-Visual-Primitives
  • 技術報告:https://github.com/deepseek-ai/Thinking-with-Visual-Primitives/blob/main/Thinking_with_Visual_Primitives.pdf

下面我們就基于 DeepSeek 這篇技術報告,具體看看 DeepSeek、北京大學、清華大學又創(chuàng)造了怎樣的奇跡。

這篇論文名叫「Thinking with Visual Primitives(以視覺原語思考)」。它提出的問題,幾乎擊中了當前所有多模態(tài)大模型的軟肋:這些模型能「看見」,但不一定能「想清楚」。

給一張密集的人群照片,問 GPT-5.4「圖里有多少人」,它很可能數(shù)錯。給 Claude Sonnet 4.6 一張復雜電路圖,問「左邊的紅色電容在右邊電感的左側還是右側」,它的回答往往語焉不詳,甚至前后矛盾。這不是模型看不清圖片的問題,而是模型在「思考」時根本抓不住它想談的視覺對象。

DeepSeek 把這個問題命名為「Reference Gap」(指代鴻溝),并給出了一套完整的解法。

背景:「看清」和「想清」是兩件事

要理解這個問題,先想象你在向一個看不見你屏幕的朋友描述一張復雜的棋盤布局。你說「左邊那個棋子要吃掉中間偏右一點那個棋子」,然而對方根本不知道你在說哪兩顆棋子。

這正是現(xiàn)有多模態(tài)大模型在推理時的處境。它們用自然語言構建「思維鏈」(CoT),但自然語言天生模糊:「左邊那個大的」、「靠近中央的紅色物體」,這些描述在密集場景里根本無法精確定位。模型的注意力在推理過程中逐漸「漂移」,越說越亂,最后得出錯誤結論。

學術界此前的應對方案,主要是讓模型「看得更清楚」:對圖片進行高分辨率切割、動態(tài)分塊,確保模型能感知到細節(jié)。這解決的是「感知鴻溝」(Perception Gap)。

但 DeepSeek 的論文指出,感知能力再強,也代替不了精確的「指代能力」?!缚匆姟购汀改苷f清楚在說哪個」,是兩件不同的事。

架構:站在 V4-Flash 肩膀上

這項工作以 DeepSeek 剛發(fā)布的 V4-Flash 為語言主干 —— 這是一個 284B 總參數(shù)、推理時激活 13B 參數(shù)的混合專家模型(MoE)。視覺編碼部分則使用 DeepSeek 自研的 ViT(視覺 Transformer),支持任意分辨率輸入。



值得注意的是,這支團隊的核心貢獻在于提出了一套完整的「訓練哲學」:如何用極少的視覺 token,教會模型在推理過程中精確指代視覺對象。

核心創(chuàng)新一:把坐標變成「思維單元」

這篇論文最核心的思路,用一句話說就是:把點坐標和邊界框(Bounding Box)變成推理的基本單位,像文字一樣穿插在思維鏈里。

傳統(tǒng)做法中,邊界框是輸出的一部分:模型先想清楚,再告訴你「目標在圖片左上角坐標 [100,200,300,400]」。這是事后標注,不是思考工具。

DeepSeek 的做法不同。模型在推理過程中,每當提到一個視覺對象,就同步輸出它的坐標:

「掃描圖片尋找熊,找到一只 <|ref|> 熊 <|/ref|><|box|>[[452,23,804,411]]<|/box|>,它正在爬樹,不在地面上,排除。再往左下看,找到另一只 <|ref|> 熊 <|/ref|><|box|>[[50,447,647,771]]<|/box|>,站在巖石邊緣,符合條件。」

這就像人類在數(shù)東西時會用手指逐一點過去。坐標不再是答案,而是推理過程中消除歧義的「錨點」。模型的邏輯鏈被釘在圖片的物理坐標上,不會漂移。

這套機制有兩種「原語」(Primitives):邊界框(<|box|>)用于需要定位和尺寸信息的對象;點坐標(<|point|>)用于更抽象的空間指代,比如迷宮探索軌跡或曲線追蹤路徑。

核心創(chuàng)新二:7056 倍的視覺壓縮

另一個令人印象深刻的技術創(chuàng)新,來自架構層面的壓縮。

對于一張 756×756 的圖片,傳統(tǒng)方案需要大量視覺 token 喂給語言模型。DeepSeek 的流程是這樣的:圖片先經(jīng)過 ViT 處理,生成 2916 個圖像塊 token;再經(jīng)過 3×3 空間壓縮,合并為 324 個 token 輸入語言模型;最后,內(nèi)置在 V4-Flash 里的「壓縮稀疏注意力」(Compressed Sparse Attention,CSA)機制,將 KV 緩存進一步壓縮 4 倍,最終只剩 81 個視覺 KV 條目。

從原始像素到最終緩存條目,整體壓縮比為 7056 倍。

這意味著,對于一張 800×800 的圖片,這個模型只需要約 90 個 KV 緩存條目,而 Claude Sonnet 4.6 需要約 870 個,Gemini-3-Flash 需要約 1100 個。論文的論點是:精確的空間指代能力,可以在一定程度上彌補視覺 token 不足的問題。模型不需要「看更多」,而需要「指更準」。

核心創(chuàng)新三:冷啟動數(shù)據(jù)的精心設計

技術創(chuàng)新的第三個維度,在于訓練數(shù)據(jù)的構建方式。

團隊首先爬取了近 10 萬個與目標檢測相關的數(shù)據(jù)集,經(jīng)過兩輪嚴格篩選(語義審核和幾何質(zhì)量審核),最終保留約 3.17 萬個高質(zhì)量數(shù)據(jù)源,生成超過 4000 萬條訓練樣本。

在「思考與視覺原語」的專項冷啟動數(shù)據(jù)上,團隊設計了四類任務。

第一類是計數(shù),分粗粒度(「圖里有多少人」)和細粒度(「穿藍色衣服的人有幾個」)兩種。對于粗粒度計數(shù),模型學習「批量鎖定」—— 一次性框出所有候選對象再數(shù);對于細粒度計數(shù),則學習逐一掃描、逐一核對屬性。兩種策略對應不同認知負荷,分別訓練。



第二類是空間推理和視覺問答,大量利用 GQA 數(shù)據(jù)集(自然場景)和 CLEVR 工具鏈(可控合成場景)生成多跳推理樣本,迫使模型在每一步推理時都用邊界框鎖定涉及的對象。



第三類是迷宮導航,共生成 46 萬條樣本。團隊用 DFS(深度優(yōu)先搜索)、Prim 和 Kruskal 算法生成矩形、圓形、六邊形三種拓撲結構的迷宮,并專門設計了「表面可解但實際無解」的迷宮來訓練模型的魯棒性。模型需要用點坐標記錄每一步探索軌跡,回溯時也要用坐標標記已排除路徑。



第四類是路徑追蹤,共 12.5 萬條樣本。給定一張多條貝塞爾曲線相互交叉的圖,要求模型追蹤指定起點的曲線到達終點。關鍵挑戰(zhàn)在于「交叉歧義消解」:兩條線交叉時,模型必須判斷哪一條才是目標曲線的延續(xù),而不是用顏色取巧 —— 專門設計了所有曲線顏色相同的測試版本。



訓練流程:「先分家,再合體」

后訓練階段,團隊采用「先專家化,后統(tǒng)一」的策略。

第一步,用邊界框數(shù)據(jù)和點坐標數(shù)據(jù)分別訓練兩個專家模型(FTwG 和 FTwP),避免兩種模態(tài)在數(shù)據(jù)量較少時互相干擾。

第二步,對兩個專家模型各自進行強化學習(RL),使用 GRPO 算法。獎勵設計非常精細:格式獎勵(輸出格式是否正確)、質(zhì)量獎勵(LLM 評判思考內(nèi)容和答案是否一致)、精度獎勵(任務特定)三路并行。計數(shù)任務使用平滑指數(shù)衰減獎勵而非二值對錯,迷宮任務的獎勵分解為五個子項(因果探索進度、探索完整性、穿墻懲罰、路徑有效性、答案正確性),都是為了給模型提供密集而信息豐富的學習信號。

第三步,用兩個專家模型的 rollout 數(shù)據(jù)進行統(tǒng)一的強化微調(diào)(Unified RFT),再從預訓練模型重新初始化開始訓練,得到統(tǒng)一模型 F。

第四步,用 On-Policy Distillation(在線策略蒸餾)彌合統(tǒng)一模型與專家模型之間的性能差距 —— 讓學生模型自己生成軌跡,然后最小化其輸出分布與專家分布之間的 KL 散度。

實驗結果:在「最難的那類題」上超越 GPT-5.4

論文在 11 個基準測試上進行了評測,與 Gemini-3-Flash、GPT-5.4、Claude Sonnet 4.6、Gemma4-31B、Qwen3-VL-235B 等主流模型對比(所有 frontier 模型均通過 API 評測,使用統(tǒng)一提示詞)。



結果概要如下:

  • 在計數(shù)任務上,該模型在 Pixmo-Count(精確匹配)上得分 89.2%,超過 Gemini-3-Flash 的 88.2%,大幅領先 GPT-5.4 的 76.6% 和 Claude Sonnet 4.6 的 68.7%。在細粒度計數(shù)上(DS_Finegrained_Counting),以 88.7% 超過 Qwen3-VL 的 87.2%,位居第一。
  • 在空間推理的多個基準上,整體表現(xiàn)與頭部模型持平或略有超越,在 MIHBench(85.3%)和 SpatialMQA(69.4%)上均排名第一。
  • 最具代表性的差距出現(xiàn)在拓撲推理任務上。在迷宮導航(DS_Maze_Navigation)上,該模型得分 66.9%,而 GPT-5.4 為 50.6%、Gemini-3-Flash 為 49.4%、Claude Sonnet 4.6 為 48.9%—— 所有 frontier 模型都只能答對一半,而這個模型提升了約 17 個百分點。在路徑追蹤(DS_Path_Tracing)上,該模型 56.7% vs. GPT-5.4 的 46.5%、Gemini-3-Flash 的 41.4%,差距同樣懸殊。

論文誠實地指出:「所有 frontier 模型在拓撲推理任務上均表現(xiàn)欠佳,說明多模態(tài)大模型的推理能力仍有相當大的提升空間?!?/p>

下面展示了幾個定性示例:







局限與未來

論文沒有回避幾個已知的局限性。

  • 當前模型需要明確的「觸發(fā)詞」才會啟用視覺原語機制 —— 它還不能自主判斷什么時候該「用手指」。
  • 受輸入分辨率限制,在極細粒度的視覺場景中,視覺原語的位置偶爾會不夠精準。團隊認為與現(xiàn)有高分辨率感知方案的結合是自然的下一步。
  • 用點坐標解決復雜拓撲推理問題,目前的跨場景泛化能力仍然有限。

結語:一種新的「思考姿勢」

這篇論文的意義,不只是在幾個榜單上拿了第一。

它提出的問題 ——「推理過程中語言指代的歧義性是多模態(tài)模型的根本瓶頸之一」—— 在此之前并不是學界的主流敘事。

主流的努力方向是更大的模型、更高的分辨率、更多的訓練數(shù)據(jù)。這篇論文給出了另一條路:不是讓模型「看更多」,而是讓模型「指更準」,用坐標代替語言描述,用空間錨點穩(wěn)定邏輯鏈。

從這個角度看,「Thinking with Visual Primitives」更像是在給多模態(tài)推理增添一種「思考姿勢」—— 一種人類在處理復雜視覺任務時本能就會使用、但 AI 此前一直缺失的姿勢:用手指點著想。

更多詳情請參閱原論文。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
納指突然跳水,英偉達蒸發(fā)超1.5萬億元,Meta暴跌10%,微軟跌超5%!美國經(jīng)濟增長低于預期,核心通脹指數(shù)創(chuàng)近3年新高|美股開盤

納指突然跳水,英偉達蒸發(fā)超1.5萬億元,Meta暴跌10%,微軟跌超5%!美國經(jīng)濟增長低于預期,核心通脹指數(shù)創(chuàng)近3年新高|美股開盤

每日經(jīng)濟新聞
2026-04-30 22:43:06
泰晤士:因賽后稱馬競球迷影響判罰,賴斯可能會被歐足聯(lián)處罰

泰晤士:因賽后稱馬競球迷影響判罰,賴斯可能會被歐足聯(lián)處罰

懂球帝
2026-05-01 01:55:07
“二普”通話試圖推動俄勝利日?;?,澤連斯基會答應嗎?

“二普”通話試圖推動俄勝利日?;?,澤連斯基會答應嗎?

史政先鋒
2026-04-30 16:04:33
余承東在華為權力排名

余承東在華為權力排名

生活新鮮市
2026-04-27 18:30:53
采訪了100個娶了小三的男人,他們幾乎都說了同一句話,讓人恍然

采訪了100個娶了小三的男人,他們幾乎都說了同一句話,讓人恍然

千秋文化
2026-04-15 20:18:32
5月新規(guī)正式落地!轉(zhuǎn)賬嚴查全面開啟,普通人日常轉(zhuǎn)賬一定要留心

5月新規(guī)正式落地!轉(zhuǎn)賬嚴查全面開啟,普通人日常轉(zhuǎn)賬一定要留心

老特有話說
2026-04-29 15:03:03
“大衣哥”朱之文透露因遭惡意騷擾踹門,將家里木門換成鐵門,家門口裝6個監(jiān)控:不生氣,他們已受法律制裁

“大衣哥”朱之文透露因遭惡意騷擾踹門,將家里木門換成鐵門,家門口裝6個監(jiān)控:不生氣,他們已受法律制裁

洪觀新聞
2026-04-30 15:08:10
離譜!一班主任通知,因舉報不再布置課后作業(yè),引發(fā)其他家長不滿

離譜!一班主任通知,因舉報不再布置課后作業(yè),引發(fā)其他家長不滿

火山詩話
2026-04-30 10:53:58
為什么整個亞洲只有中國有山姆超市?

為什么整個亞洲只有中國有山姆超市?

流蘇晚晴
2026-04-30 18:50:00
如今黃金價格變成了一個天大的笑話,買黃金可笑到什么程度

如今黃金價格變成了一個天大的笑話,買黃金可笑到什么程度

阿器談史
2026-03-25 04:43:38
埃布埃2000萬英鎊歸零:一個足球明星的財務崩塌路線圖

埃布埃2000萬英鎊歸零:一個足球明星的財務崩塌路線圖

體壇觀察猿
2026-05-01 01:40:38
突發(fā)!603599,被證監(jiān)會立案

突發(fā)!603599,被證監(jiān)會立案

中國基金報
2026-04-30 22:36:21
葡超又爆冷!葡體2-2差本菲卡2分,穆帥笑了:后3場拿7分進歐冠

葡超又爆冷!葡體2-2差本菲卡2分,穆帥笑了:后3場拿7分進歐冠

體育知多少
2026-04-30 07:07:33
時隔20年,34歲“莫小貝”回到《武林外傳》同??蜅?>
    </a>
        <h3>
      <a href=上觀新聞
2026-04-30 08:50:45
“牛散”章建平換倉了!46億賣掉寒武紀,34億重倉稀土龍頭,這波操作你看懂了嗎?

“牛散”章建平換倉了!46億賣掉寒武紀,34億重倉稀土龍頭,這波操作你看懂了嗎?

都市快報橙柿互動
2026-04-30 23:43:59
卡特彼勒股價上漲10%,股價創(chuàng)歷史新高

卡特彼勒股價上漲10%,股價創(chuàng)歷史新高

每日經(jīng)濟新聞
2026-04-30 23:47:07
大家?guī)臀铱纯次姨善搅藛幔?>
    </a>
        <h3>
      <a href=常識群
2026-04-30 09:29:51
國鐵正式官宣!5月30日起,60歲以上老人坐高鐵,享專屬錯峰優(yōu)惠

國鐵正式官宣!5月30日起,60歲以上老人坐高鐵,享專屬錯峰優(yōu)惠

混沌錄
2026-04-30 20:35:22
洛陽白馬寺發(fā)布鄭重聲明:不少游客因通過非官方第三方渠道購買非法倒賣的預約門票,導致無法正常入寺,切勿輕信

洛陽白馬寺發(fā)布鄭重聲明:不少游客因通過非官方第三方渠道購買非法倒賣的預約門票,導致無法正常入寺,切勿輕信

極目新聞
2026-04-29 18:10:47
《黑袍》星光在GTA6“下?!?!街頭服務“攬客”

《黑袍》星光在GTA6“下?!?!街頭服務“攬客”

游民星空
2026-04-29 19:43:05
2026-05-01 02:15:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12898文章數(shù) 142640關注度
往期回顧 全部

科技要聞

9000億美元估值,Anthropic即將反超OpenAI

頭條要聞

英國國王給特朗普送了口鐘 還貼臉開大"有需要盡管敲"

頭條要聞

英國國王給特朗普送了口鐘 還貼臉開大"有需要盡管敲"

體育要聞

季后賽場均5.4分,他憑啥在騎士打首發(fā)?

娛樂要聞

孫楊博士學歷有問題?官方含糊其辭

財經(jīng)要聞

易會滿被“雙開”!

汽車要聞

專訪捷途汪如生:捷途雙線作戰(zhàn) 全球化全面落地

態(tài)度原創(chuàng)

時尚
房產(chǎn)
藝術
健康
公開課

春天穿衣要杜絕老氣感!衣服選對、搭配到位,減齡舒適又得體

房產(chǎn)要聞

熬了6年,漲了2億,三亞核心區(qū)這塊地再次上架

藝術要聞

耗資21億的故宮北院,網(wǎng)友看后直搖頭:怎么撞臉高鐵站了?

干細胞治燒燙傷面臨這些“瓶頸”

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版