国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

「北京版幻方」開源SOTA代碼模型!40B參數(shù)掀翻Opus-4.5和GPT-5.2

0
分享至

衡宇 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI

又一個中國新模型被推到聚光燈下,刷屏國內(nèi)外科技圈。

IQuest-Coder-V1模型系列,看起來真的很牛。

在最新版SWE-Bench Verified榜單中,40B參數(shù)版本的IQuest-Coder取得了81.4%的成績,這個成績甚至超過了Claude Opus-4.5和GPT-5.2(這倆模型沒有官方資料,但外界普遍猜測參數(shù)規(guī)模在千億-萬億級)。

Oh~Tiny Core, Titan Power。



好,看到這里我盲猜很多人肯定已經(jīng)開始邊搖頭邊笑了。

畢竟這年頭,benchmark的權(quán)威猶在,但說服力似乎已經(jīng)大不如前了。

那咱們就看看這個模型跑出來的case——

Prompt:編寫一個網(wǎng)頁來展示一個逼真的太陽系模擬。

然后你將得到:



可以自由切換各種視角,讓畫面暫停、放大,調(diào)整公轉(zhuǎn)速度也ok。

選中具體的行星,還會跳出相應(yīng)的名字和簡單介紹。



目前,這套代碼大模型系列已經(jīng)在GitHub和抱抱臉上開源。

有一個重點(diǎn)一定要劃?。?!

這個模型團(tuán)隊(duì)IQuest,和DeepSeek團(tuán)隊(duì)一個路數(shù),都出自中國的量化私募。

背后公司就是北京版幻方量化——九坤投資。

(兩家公司都是業(yè)內(nèi)公認(rèn)的量化私募頭部)

X、Reddit等平臺上,關(guān)于IQuest-Coder的消息和對中國量化公司殺入AI模型戰(zhàn)場的討論已經(jīng)滿天飛了。

有網(wǎng)友一臉unbelievable地問出了令他詫異的問題:

中國量化公司到底吸納了些什么人才,才能把模型訓(xùn)練成這樣?????



Ok,一起來看看這套模型的詳細(xì)情況吧~

IQuest-Coder-V1系列

從定位上看,IQuest-Coder-V1是一套覆蓋多個參數(shù)規(guī)模與使用場景的家族版本,專注于代碼生成、代碼理解與軟件工程任務(wù)的模型系列。

參數(shù)有7B、14B和40B的,每個規(guī)模均提供Instruct和Thinking兩種版本。

其中,Instruct偏向指令跟隨與工程使用,更高效;Thinking強(qiáng)化復(fù)雜推理和多步問題拆解,響應(yīng)時間更長。



特別提醒大家注意一下,40B參數(shù)規(guī)模的IQuest-Coder-V1額外提供了Loop版本,用于探索更高的參數(shù)利用效率。

與計算成本相似的模型相比,IQuest-Coder-V1-40B-Loop的HBM和KV Cache開銷顯著降低,而吞吐量大幅提升。

僅增加約5%的訓(xùn)練成本,Loop架構(gòu)下,40B模型達(dá)到數(shù)百億參數(shù)MoE模型的水平。



在架構(gòu)設(shè)計上,IQuest-Coder-V1系列強(qiáng)調(diào)了“工程友好”和“長上下文可用性”。

官方在GitHub上給出的四點(diǎn)架構(gòu)特性分別是:

  • 分組查詢注意力(Grouped Query Attention,GQA)以實(shí)現(xiàn)高效推理
  • 原生支持128K上下文長度
  • 詞表大?。?6800個token
  • 循環(huán)變體采用了具有共享參數(shù)的循環(huán)Transformer設(shè)計,該設(shè)計在兩個迭代過程中保持一致。

首先說說GQA的引入。

通過減少KV頭數(shù)量來降低推理階段的顯存占用和計算壓力,對長上下文場景超級友好。

其次,模型原生支持128K上下文長度。這就讓模型有能力直接處理完整代碼倉庫、跨文件依賴以及大規(guī)模工程上下文。

第三,76800個token的詞表大小,更貼近真實(shí)代碼環(huán)境中頻繁出現(xiàn)的標(biāo)識符、路徑名和符號組合。

最后,在Loop變體中,模型采用了具有跨兩次迭代共享參數(shù)的循環(huán)Transformer設(shè)計,用重復(fù)計算換取更高的參數(shù)利用率,在不線性擴(kuò)大模型規(guī)模的前提下提升性能。

作者刻意指出,這和早期Parallel Loop Transformer不同,去掉了token shifting和inference trick,更強(qiáng)調(diào)推理階段的穩(wěn)定性。

這些特性組合在一起,有利于模型在真實(shí)軟件工程場景中跑得更好。



來看官方展示的更多case。

Prompt 1:構(gòu)建一個粒子-文本動畫,滿足以下要求。

  • 文本采樣:將給定文本(例如,IQuest)在 Canvas 上轉(zhuǎn)換為由數(shù)百個小粒子組成的點(diǎn)陣。
  • 狀態(tài):每個粒子都有一個當(dāng)前位置和一個目標(biāo)位置(形成文本)。
  • 交互式物理效果:當(dāng)鼠標(biāo)靠近時相互排斥和散開;當(dāng)鼠標(biāo)移開時平滑地彈回。
  • 視覺效果與緩動:隨機(jī)/漸變顏色,用于整體運(yùn)動的緩動效果。



Prompt 2:構(gòu)建一個實(shí)時像素沙盒游戲。

通過按鈕切換沙子、水、石頭和酸液;在畫布上涂畫可生成具有不同顏色的元素;大規(guī)模更新依然流暢;元素會自然下落并流動。



Prompt 3:構(gòu)建一個完整的單文件HTML5 Canvas太空射擊游戲,具有復(fù)古霓虹美學(xué)和明顯的戰(zhàn)斗反饋。

  • 視覺風(fēng)格:黑色背景,高飽和度霓虹幾何形狀,街機(jī)感。
  • 控制:WASD移動;兩種瞄準(zhǔn)/炮塔模式(鼠標(biāo)跟隨,或按R鍵旋轉(zhuǎn)炮塔)。
  • 射擊:帶完整視覺效果的自動射擊太空飛船。
  • 反饋:擊殺時,出現(xiàn)粒子爆炸效果;受到傷害時,屏幕會震動。
  • 敵人:普通士兵/奇襲者/重型坦克,以及Boss戰(zhàn)。
  • 進(jìn)階:按P鍵能升級火力。



Prompt 4:基于鳥群算法的仿生鳥/魚群體模擬,擁有150個以上的自主Agent,有實(shí)時調(diào)節(jié)功能。

  • 核心規(guī)則:分離(避免碰撞)、對齊(速度匹配)和內(nèi)聚(群體中心)。
  • 實(shí)時面板:調(diào)整分離/對齊/凝聚權(quán)重(0-3)、視覺半徑(20-150 像素)和最大速度。
  • 交互:鼠標(biāo)充當(dāng)捕食者,使附近的智能體散開。
  • 渲染:在深色背景下,以運(yùn)動方向旋轉(zhuǎn)的霓虹三角形和發(fā)光軌跡。
  • 工具:FPS 計數(shù)器和暫停/繼續(xù)(空格鍵)。



與眾不同的“代碼流多階段訓(xùn)練”訓(xùn)練策略

IQuest-Coder的訓(xùn)練流程如下——

預(yù)訓(xùn)練階段先用通用數(shù)據(jù)和大規(guī)模代碼數(shù)據(jù)打底,然后通過高質(zhì)量代碼annealing強(qiáng)化基礎(chǔ)代碼表征。

中期訓(xùn)練階段第一次明確引入reasoning、agent trajectory和長上下文代碼,并且分32K和128K兩個尺度逐步推進(jìn)。

最終post-training階段,模型被明確分流成instruct路線和thinking路線,分別用不同目標(biāo)函數(shù)和RL方式收斂。



官方強(qiáng)調(diào),IQuest-Coder-V1系列采用了與傳統(tǒng)單一靜態(tài)源代碼訓(xùn)練不同的訓(xùn)練策略。

稱之為code-flow multi-stage training。

與大量代碼模型側(cè)重從靜態(tài)代碼片段中學(xué)習(xí)不同,這套方法強(qiáng)調(diào)從代碼的演化過程中學(xué)習(xí)。

團(tuán)隊(duì)專門設(shè)計了基于項(xiàng)目生命周期的triplet數(shù)據(jù)構(gòu)造方式,用 (R_old, Patch, R_new) 這樣的結(jié)構(gòu),讓模型看到穩(wěn)定期代碼、變更內(nèi)容以及變更后的結(jié)果。

而且刻意避開項(xiàng)目早期和后期,只取40%–80%生命周期區(qū)間。

這一步實(shí)際上把“軟件工程經(jīng)驗(yàn)”顯式編碼進(jìn)了訓(xùn)練數(shù)據(jù)里。

所以模型看到的并不只是某一時刻的完成態(tài)代碼,還包括修改前后的差異、提交歷史中的邏輯變化,以及真實(shí)工程中反復(fù)試錯和修正的痕跡。

也就是說模型被訓(xùn)練得能夠捕捉軟件邏輯的動態(tài)演變。



不少網(wǎng)友猜測,這就是IQuest-Coder-V1在多個軟件工程類評測中表現(xiàn)突出的重要原因之一。

這套模型成績確實(shí)亮眼。

  • SWE-Bench Verified:81.4%
  • BigCodeBench:49.9%
  • LiveCodeBench v6:81.1%



下面這張圖體現(xiàn)得更直觀一點(diǎn),IQuest-Coder在八個代碼、Agentic相關(guān)榜單上都獨(dú)占鰲頭。



不過,GitHub上白紙黑字寫著,模型可以生成代碼,但不能執(zhí)行,始終在沙盒環(huán)境中驗(yàn)證輸出結(jié)果。

部署方面,官方信息顯示,不管是基礎(chǔ)版本還是Loop版本,都支持單卡H20推理。

其Int4版本可在單張消費(fèi)級3090/4090 GPU上部署。



有網(wǎng)友表示,非Loop版本的模型似乎采用的是阿里Qwen2的架構(gòu)。



隨著關(guān)注度上升,質(zhì)疑也同步出現(xiàn)。



九坤投資公司是誰?

好,最后我們來認(rèn)識一下IQuest-Coder背后的公司,九坤投資(Ubiquant Holding Limited)。

公司成立于2012年,是中國較早一批專注量化投資和高頻交易的私募機(jī)構(gòu)之一,目前管理規(guī)模在數(shù)百億元人民幣,和幻方同屬于公認(rèn)的國內(nèi)量化私募頭部公司。

九坤主要辦公地在北京,3周前開設(shè)了新加坡辦公室。

聯(lián)合創(chuàng)始人王琛,2000年考入清華大學(xué),獲得數(shù)學(xué)物理學(xué)士學(xué)位和理論計算機(jī)博士學(xué)位,博士期間師從圖靈獎得主姚期智院士。

博士畢業(yè)后,王琛就職于美國頂級對沖基金Millennium,后創(chuàng)業(yè)擔(dān)任九坤投資聯(lián)合創(chuàng)始人、CEO。

聯(lián)合創(chuàng)始人姚齊聰,2002年考入北京大學(xué)數(shù)學(xué)系,獲得數(shù)學(xué)學(xué)士和金融數(shù)學(xué)碩士學(xué)位。

碩士畢業(yè)后進(jìn)入Millennium,后與王琛共同創(chuàng)業(yè),主要負(fù)責(zé)九坤投研體系搭建、量化策略開發(fā)和風(fēng)險管理,被視為公司策略和風(fēng)控體系的核心設(shè)計者之一。

九坤的投研與技術(shù)團(tuán)隊(duì)人數(shù)超過百人,90%以上畢業(yè)于清華、北大、復(fù)旦、斯坦福等國內(nèi)外知名高校,博士占比超過60%。

公開信息顯示,這家公司目前也傾向于從全球頂尖高校招募具有計算機(jī)、數(shù)學(xué)、物理、統(tǒng)計學(xué)等背景的應(yīng)屆畢業(yè)生。



在AI領(lǐng)域,幻方更早憑DeepSeek站到臺前。

不過查詢有關(guān)資料發(fā)現(xiàn),此前九坤也很注重AI技術(shù)這一塊

目前,九坤的IT和算力建設(shè)位居國內(nèi)量化機(jī)構(gòu)前三,并建立了數(shù)據(jù)實(shí)驗(yàn)室(DATA LAB)、人工智能實(shí)驗(yàn)室(AI LAB)等多個前沿實(shí)驗(yàn)室。

本次發(fā)布的IQuest-Coder就出自其發(fā)起設(shè)立的獨(dú)立研究平臺至知創(chuàng)新研究院。

倒也不全是為了把AI用在金融市場預(yù)測和交易決策啦——前段時間(2025年12月16日),九坤已經(jīng)推出過通用推理模型URM。

該模型在ARC-AGI正確率為53.8%,當(dāng)允許多次嘗試時,URM的成功率能達(dá)到85%以上;在更困難的ARC-AGI 2上也拿到了16.0%。

Paper最后附上了IQuest-Coder團(tuán)隊(duì)的成員名單。



挺長的,就不一一介紹了。

不過我們發(fā)現(xiàn)這篇paper的核心作者層,和《Scaling Laws for Code》《CodeSimpleQA》《From Code Foundation Models to Agents and Applications》作者陣容重合度非常高。

所以這里稍微展開介紹一下Core Contributor的幾位成員。

(注:IQuestLab團(tuán)隊(duì)成員很多沒有公開個人檔案,我們這里放出可尋找到的公開資料)

Jian Yang,谷歌學(xué)術(shù)被引量超過1.6萬。

此前應(yīng)該在Qwen 2.5和Qwen 3團(tuán)隊(duì)待過很長一段時間,2025年起開始在九坤投資發(fā)表論文。



Zhengmao Ye,本科畢業(yè)于西南交通大學(xué),在四川大學(xué)獲得計算機(jī)科學(xué)碩士學(xué)位。

此前,他曾在華為和商湯科技擔(dān)任過技術(shù)工作人員。



你沒看錯,8位Core Contributor就找到了2位的公開資料,真的盡力了.gif

另外,paper的通訊作者,是九坤人工智能實(shí)驗(yàn)室首席研究員和負(fù)責(zé)人Bryan Dai。



Paper地址:
https://github.com/IQuestLab/IQuest-Coder-V1/tree/main/papers
參考資料:
[1]https://x.com/zephyr_z9/status/2006579658972868988?s=20
[2]https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
[3]https://iquestlab.github.io/#/
[4]https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
永州“江蘇大道”第一塊廣告牌已經(jīng)豎起來了,南通網(wǎng)友包了一年

永州“江蘇大道”第一塊廣告牌已經(jīng)豎起來了,南通網(wǎng)友包了一年

現(xiàn)代快報
2026-01-10 23:18:12
官方通報“亞運(yùn)冠軍遭索要獎金”調(diào)查結(jié)果

官方通報“亞運(yùn)冠軍遭索要獎金”調(diào)查結(jié)果

第一財經(jīng)資訊
2026-01-10 23:46:34
越南不恨美國,不恨日本,連殖民幾十年的法國都不恨,就只恨中國

越南不恨美國,不恨日本,連殖民幾十年的法國都不恨,就只恨中國

我心縱橫天地間
2026-01-07 19:17:18
切爾西最 “冤” 主帥!博阿斯 9 個月被炒,10 筆引援卻封神!

切爾西最 “冤” 主帥!博阿斯 9 個月被炒,10 筆引援卻封神!

瀾歸序
2026-01-11 03:06:51
西部三場比賽結(jié)果:快船勝、獨(dú)行俠負(fù)、馬刺勝,積分榜最新排名

西部三場比賽結(jié)果:快船勝、獨(dú)行俠負(fù)、馬刺勝,積分榜最新排名

吳蛛旅行ing
2026-01-11 15:00:02
川普發(fā)表涉臺言論,中方這次沒給他留面子,直說自己解決臺灣問題

川普發(fā)表涉臺言論,中方這次沒給他留面子,直說自己解決臺灣問題

體育小柚
2026-01-11 09:56:25
國乒面臨全軍覆沒!王曼昱也輸了,對手發(fā)聲引發(fā)擔(dān)憂,馬琳開門黑

國乒面臨全軍覆沒!王曼昱也輸了,對手發(fā)聲引發(fā)擔(dān)憂,馬琳開門黑

三十年萊斯特城球迷
2026-01-10 20:56:18
年薪5412萬,又一次受傷倒下!被拋棄的超級巨星,這筆交易虧大了

年薪5412萬,又一次受傷倒下!被拋棄的超級巨星,這筆交易虧大了

籃球看比賽
2026-01-11 12:14:30
俄漢通婚,有多猛?為何俄羅斯族混血率,全國最高?

俄漢通婚,有多猛?為何俄羅斯族混血率,全國最高?

南風(fēng)不及你溫柔
2025-12-10 22:05:06
美媒爆料:美軍空襲尼日利亞境內(nèi)“伊斯蘭國”目標(biāo),至少有4枚“戰(zhàn)斧”似乎未能引爆

美媒爆料:美軍空襲尼日利亞境內(nèi)“伊斯蘭國”目標(biāo),至少有4枚“戰(zhàn)斧”似乎未能引爆

環(huán)球網(wǎng)資訊
2026-01-11 10:10:21
建議大家:房子再大,也別在陽臺放“洗衣機(jī)”,不是胡說,是經(jīng)驗(yàn)

建議大家:房子再大,也別在陽臺放“洗衣機(jī)”,不是胡說,是經(jīng)驗(yàn)

家居設(shè)計師蘇哥
2026-01-11 11:13:29
山河四省,三億人的悲哀

山河四省,三億人的悲哀

銀河系漫游客
2025-12-30 14:04:48
WTT多哈賽11日凌晨!一場4-0 4強(qiáng)出爐 中國天才少年送日本新星慘敗

WTT多哈賽11日凌晨!一場4-0 4強(qiáng)出爐 中國天才少年送日本新星慘敗

林子說事
2026-01-11 03:35:20
謝婷婷攜外籍老公看網(wǎng)球賽,胸前掛著半歲兒子,跟陳奕迅罕見同框

謝婷婷攜外籍老公看網(wǎng)球賽,胸前掛著半歲兒子,跟陳奕迅罕見同框

韓馳
2026-01-11 15:30:28
74-131!落后57分!正負(fù)值-60歷史最差紀(jì)錄

74-131!落后57分!正負(fù)值-60歷史最差紀(jì)錄

籃球教學(xué)論壇
2026-01-11 13:59:19
終于輪到日本“強(qiáng)烈抗議”了:130年來,日本從未像今天這樣憋屈

終于輪到日本“強(qiáng)烈抗議”了:130年來,日本從未像今天這樣憋屈

胖哥不胡說
2026-01-08 13:12:20
馬龍陪夏露吃牛排,夏露開蘭博基尼送兒子上學(xué),他們住在大別墅!

馬龍陪夏露吃牛排,夏露開蘭博基尼送兒子上學(xué),他們住在大別墅!

錯過美好
2026-01-11 15:15:59
27分創(chuàng)新高!媒體人:本場比賽后 我更加確信王俊杰應(yīng)該轉(zhuǎn)校離開

27分創(chuàng)新高!媒體人:本場比賽后 我更加確信王俊杰應(yīng)該轉(zhuǎn)校離開

天光破云來
2026-01-11 13:03:19
王思聰送99朵玫瑰示愛,懶懶早搬進(jìn)2億豪宅,倆人只差一張結(jié)婚證

王思聰送99朵玫瑰示愛,懶懶早搬進(jìn)2億豪宅,倆人只差一張結(jié)婚證

瘋說時尚
2026-01-11 11:09:04
明朝的強(qiáng)弩不過能射50步遠(yuǎn),為什么戰(zhàn)國時期的強(qiáng)弩卻能射600步?

明朝的強(qiáng)弩不過能射50步遠(yuǎn),為什么戰(zhàn)國時期的強(qiáng)弩卻能射600步?

銘記歷史呀
2026-01-09 06:15:36
2026-01-11 16:35:00
量子位 incentive-icons
量子位
追蹤人工智能動態(tài)
11999文章數(shù) 176357關(guān)注度
往期回顧 全部

科技要聞

“我們與美國的差距也許還在拉大”

頭條要聞

伊朗警告特朗普:若遭攻擊 必將還擊

頭條要聞

伊朗警告特朗普:若遭攻擊 必將還擊

體育要聞

詹皇曬照不滿打手沒哨 裁判報告最后兩分鐘無誤判

娛樂要聞

網(wǎng)友偶遇賈玲張小斐崇禮滑雪

財經(jīng)要聞

外賣平臺"燒錢搶存量市場"迎來終局?

汽車要聞

2026款宋Pro DM-i長續(xù)航補(bǔ)貼后9.98萬起

態(tài)度原創(chuàng)

教育
健康
數(shù)碼
房產(chǎn)
旅游

教育要聞

考上研究生后才知道,原來碩士導(dǎo)師和本科老師不一樣,后悔太天真

這些新療法,讓化療不再那么痛苦

數(shù)碼要聞

安裝空調(diào)更省心 小米宣布數(shù)字抽真空服務(wù)覆蓋7省級行政區(qū)

房產(chǎn)要聞

66萬方!4755套!三亞巨量房源正瘋狂砸出!

旅游要聞

自駕游焦作!憑高速繳費(fèi)憑證,A級景區(qū)門票免費(fèi)/半價

無障礙瀏覽 進(jìn)入關(guān)懷版