国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

2025年度Qwen系列大模型深度研究報(bào)告

0
分享至

大家好,我是Ai學(xué)習(xí)的老章


技術(shù)架構(gòu)演進(jìn):從混合專家到混合推理的范式革命

2025年,阿里巴巴通義千問(Qwen)系列大模型在技術(shù)架構(gòu)層面展現(xiàn)了清晰且深刻的進(jìn)化路徑,其核心特征是從追求參數(shù)規(guī)模的“密集計(jì)算”向追求效率的“稀疏計(jì)算”轉(zhuǎn)變,并最終實(shí)現(xiàn)了“混合推理”這一范式革命。這一演進(jìn)不僅體現(xiàn)在旗艦?zāi)P偷脑O(shè)計(jì)中,也貫穿于其龐大的多模態(tài)家族和專用模型矩陣之中,標(biāo)志著Qwen團(tuán)隊(duì)在模型架構(gòu)設(shè)計(jì)上的成熟與前瞻性。整個(gè)技術(shù)演進(jìn)的主線圍繞著三大支柱展開:以混合專家(MoE)架構(gòu)為核心的計(jì)算效率提升、以“思考模式”與“非思考模式”融合為標(biāo)志的智能形態(tài)創(chuàng)新,以及為支撐復(fù)雜應(yīng)用而不斷強(qiáng)化的基礎(chǔ)能力。

首先,混合專家(Mixture-of-Experts, MoE)架構(gòu)成為Qwen系列所有旗艦?zāi)P偷幕?,這不僅是應(yīng)對(duì)日益龐大模型規(guī)模的必然選擇,更是其實(shí)現(xiàn)高性能與高效率平衡的核心手段。早在Qwen-v2和Qwen2.5時(shí)代,MoE架構(gòu)就已經(jīng)被引入 [14[1], 15[2]]。例如,Qwen2.5-Max擁有64個(gè)專家,通過僅激活與輸入最相關(guān)的部分模型參數(shù),顯著提升了有效模型大小的同時(shí),維持了可控的計(jì)算成本 [15[3]]。進(jìn)入2025年,MoE的應(yīng)用達(dá)到了新的高度。Qwen3系列大規(guī)模采用了MoE架構(gòu),其中最引人注目的無疑是Qwen3-235B-A22B模型,它擁有高達(dá)2350億的總參數(shù),但在處理每個(gè)token時(shí)僅激活220億參數(shù),實(shí)現(xiàn)了巨大的計(jì)算效率優(yōu)勢(shì) [1[4], 17[5]]。這種設(shè)計(jì)使得模型能夠在保持頂尖智能水平的同時(shí),大幅降低部署和推理的成本,這對(duì)于推動(dòng)大模型技術(shù)的普及至關(guān)重要。Qwen3的MoE模型進(jìn)一步優(yōu)化了專家分割和路由機(jī)制,采用了細(xì)粒度的專家分割和全局批次負(fù)載均衡損失函數(shù),以鼓勵(lì)專家的專業(yè)化并提高訓(xùn)練穩(wěn)定性 [1[6]]。展望未來,Qwen3-Next的架構(gòu)甚至更為激進(jìn),它采用了一個(gè)包含512個(gè)路由專家和1個(gè)共享專家的超稀疏MoE結(jié)構(gòu),激活參數(shù)僅占總數(shù)的約3.7%(800億總參數(shù),激活約30億)[11[7], 13[8]]。這一設(shè)計(jì)表明Qwen團(tuán)隊(duì)正在積極探索MoE架構(gòu)的極限,以期實(shí)現(xiàn)前所未有的能效比,為未來的AI應(yīng)用提供更可持續(xù)的技術(shù)基礎(chǔ)。

其次,2025年Qwen系列最重大的技術(shù)突破無疑是Qwen3所引入的革命性創(chuàng)新——混合推理模式(Hybrid Reasoning)。這一機(jī)制首次將“快思考”(類似直覺的快速響應(yīng))與“慢思考”(類似邏輯推理的深度思考)能力集成到一個(gè)單一模型中,并允許用戶根據(jù)需求動(dòng)態(tài)切換或分配計(jì)算預(yù)算 [9[9], 33[10]]。對(duì)于簡單、直接的查詢,模型可以運(yùn)行在“非思考模式”,實(shí)現(xiàn)低延遲、低成本的高效交互;而對(duì)于需要復(fù)雜邏輯推導(dǎo)、數(shù)學(xué)計(jì)算或多步規(guī)劃的任務(wù),則會(huì)自動(dòng)或由用戶指定啟動(dòng)“思考模式”,進(jìn)行深入的鏈?zhǔn)剿伎迹–hain-of-Thought),從而提供更可靠、更高質(zhì)量的答案 [33[11]]。這種能力并非簡單的兩個(gè)獨(dú)立模型的拼接,而是通過一個(gè)精心設(shè)計(jì)的四階段后訓(xùn)練管道深度融合實(shí)現(xiàn)的。該管道包括:(1) 長CoT冷啟動(dòng),通過篩選高質(zhì)量問題并生成候選答案來建立基礎(chǔ);(2) 針對(duì)推理能力的強(qiáng)化學(xué)習(xí)(Reasoning RL),使用GRPO算法在大量驗(yàn)證對(duì)上進(jìn)行訓(xùn)練;(3) 思維模式融合(Thinking Mode Fusion),這是最關(guān)鍵的一步,通過持續(xù)的監(jiān)督微調(diào)(SFT),將思考數(shù)據(jù)和非思考數(shù)據(jù)結(jié)合在一起,讓模型學(xué)會(huì)在兩種模式之間無縫切換并生成符合要求的輸出;(4) 通用強(qiáng)化學(xué)習(xí)(General RL),覆蓋超過20個(gè)任務(wù)的獎(jiǎng)勵(lì)系統(tǒng),進(jìn)一步對(duì)齊人類偏好 [1[12], 17[13]]。混合推理模式的實(shí)際意義極為深遠(yuǎn),它極大地降低了復(fù)雜AI應(yīng)用的算力門檻,使開發(fā)者能夠像控制API調(diào)用一樣精細(xì)地控制模型的推理深度和成本,從而在性能、速度和成本之間找到最佳平衡點(diǎn)。這一創(chuàng)新不僅為Qwen3帶來了獨(dú)特的競爭優(yōu)勢(shì),也為整個(gè)大模型領(lǐng)域開辟了一條通往更高效率和更強(qiáng)適應(yīng)性的新路徑。

第三,在基礎(chǔ)能力層面,Qwen系列始終致力于提升長文本處理和推理過程中的效率,以滿足日益復(fù)雜的現(xiàn)實(shí)世界應(yīng)用需求。在長上下文窗口方面,Qwen家族表現(xiàn)出色。Qwen2.5系列已經(jīng)支持超過128K的上下文長度 [15[14]],而Qwen3及其后續(xù)版本更是將原生支持?jǐn)U展到了262K tokens [9[15]]。更重要的是,通過采用YaRN(Yet another RoPE-based method)等先進(jìn)的位置編碼外推技術(shù),Qwen3模型能夠?qū)⒖商幚淼拈L度擴(kuò)展至驚人的100萬tokens [9[16], 14[17]]。這使得處理整本小說、大型代碼庫或長達(dá)數(shù)小時(shí)的會(huì)議記錄成為可能,為文檔摘要、知識(shí)問答、代碼理解和研究分析等任務(wù)提供了強(qiáng)大的技術(shù)支持。在推理優(yōu)化方面,除了宏觀的架構(gòu)設(shè)計(jì),Qwen也在微觀層面不斷探索。例如,早期的Qwen2.5就集成了FlashAttention 2以加速計(jì)算并減少內(nèi)存占用 [15[18]]。而在2025年,Qwen緊跟前沿技術(shù),開始應(yīng)用FP8 KV緩存量化技術(shù)。該技術(shù)通過將注意力機(jī)制中的鍵值緩存(KV Cache)存儲(chǔ)格式從FP16/BF16降為8位浮點(diǎn)數(shù),大約可以將KV緩存的內(nèi)存占用減半,從而支持更長的序列處理或更高的并發(fā)批量處理,雖然目前尚不能直接降低延遲,但極大地提升了吞吐量 [21[19]]。此外,針對(duì)KV緩存量化誤差的研究也顯示出Qwen在該領(lǐng)域的深度參與,例如KVLinC框架通過結(jié)合哈達(dá)瑪旋轉(zhuǎn)和輕量級(jí)線性校正適配器,成功在Qwen2.5和Qwen3模型上緩解了低精度量化帶來的性能下降,尤其是在長上下文推理任務(wù)上取得了顯著提升 [22[20]]。

最后,2025年Qwen的戰(zhàn)略重心明顯轉(zhuǎn)向了構(gòu)建一個(gè)覆蓋全模態(tài)、全尺寸的龐大模型矩陣,這標(biāo)志著其技術(shù)架構(gòu)已從單一的語言模型,擴(kuò)展為一個(gè)多維的能力平臺(tái)。這個(gè)平臺(tái)不僅包括了繼續(xù)迭代的文本模型,還涵蓋了視覺、音頻、視頻等多個(gè)維度。在視覺領(lǐng)域,Qwen-VL系列模型能夠處理圖像和視頻輸入,具備空間感知和視覺編碼能力 [30[21]]。Qwen-VL-Max更是在金融等專業(yè)領(lǐng)域的文檔理解與審核場景中得到了成功應(yīng)用,解決了傳統(tǒng)OCR技術(shù)泛化能力差、語義理解缺失等痛點(diǎn) [28[22], 29[23]]。在生成與編輯領(lǐng)域,Qwen-Image系列專注于高質(zhì)量的文本渲染和圖像生成,其Qwen-Image-Edit模型在中英文文字編輯方面表現(xiàn)尤為突出,在多個(gè)基準(zhǔn)測試中達(dá)到業(yè)界領(lǐng)先水平,尤其是在中文文本渲染方面展現(xiàn)出獨(dú)特的優(yōu)勢(shì) [16[24], 27[25]]。在音頻領(lǐng)域,Qwen-Audio和全新的企業(yè)級(jí)語音基座大模型通義百聆則拓展了語音理解與合成能力,后者支持實(shí)時(shí)流式語音合成,為交互式應(yīng)用提供了更自然的體驗(yàn) [30[26], 32[27]]。在視頻領(lǐng)域,通義萬相(Wan2.2-TI2V)提供了從文本到視頻(T2V)、圖像到視頻(I2V)等多種生成能力,并支持音畫同步和高保真音頻,代表了Qwen在創(chuàng)造動(dòng)態(tài)內(nèi)容方面的最新進(jìn)展 [30[28], 32[29]]。除了這些通用的多模態(tài)模型,Qwen還針對(duì)特定垂直領(lǐng)域推出了專用模型,如Qwen3-Coder,這是一個(gè)擁有4800億總參數(shù)的巨型模型,專為自動(dòng)化軟件開發(fā)、代碼審查和大型代碼庫處理而設(shè)計(jì),其性能在Agentic Coding和Browser-use等領(lǐng)域達(dá)到了開源模型的SOTA水平 [18[30]]。同樣,Qwen2.5-Math等模型也展示了其在特定專業(yè)任務(wù)上的卓越能力 [24[31]]。這種從單點(diǎn)突破到體系化布局的架構(gòu)演進(jìn),清晰地表明Qwen的目標(biāo)已不再僅僅是超越某一個(gè)競爭對(duì)手,而是要構(gòu)建一個(gè)能夠驅(qū)動(dòng)下一代AI應(yīng)用爆發(fā)的、無所不包的“操作系統(tǒng)級(jí)”平臺(tái) [26[32]]。

性能評(píng)測與基準(zhǔn)測試:開源陣營的巔峰之作

2025年,Qwen系列大模型在各項(xiàng)權(quán)威基準(zhǔn)測試中取得了令人矚目的成績,特別是在開源模型陣營中樹立了新的性能標(biāo)桿。無論是通用能力、專業(yè)領(lǐng)域還是特定任務(wù),Qwen都展現(xiàn)出了與全球頂級(jí)閉源模型正面抗衡甚至超越的實(shí)力。其性能的飛躍不僅得益于海量且高質(zhì)量的訓(xùn)練數(shù)據(jù),更源于前文所述的架構(gòu)創(chuàng)新,尤其是混合推理模式的引入,使得模型在效率和深度之間取得了前所未有的平衡。

Qwen3系列及其后續(xù)版本,特別是旗艦?zāi)P蚎wen3-235B-A22B-Thinking-2507,成為了2025年開源模型性能的代名詞。該模型在一系列公認(rèn)的硬核基準(zhǔn)測試中均取得了優(yōu)異的成績。在數(shù)學(xué)推理方面,它在AIME'25奧數(shù)測評(píng)中獲得了81.5分,刷新了開源模型的紀(jì)錄,充分證明了其在復(fù)雜邏輯推導(dǎo)和數(shù)學(xué)解題方面的強(qiáng)大能力 [33[33]]。在代碼生成與編程能力方面,LiveCodeBench代碼能力評(píng)測得分突破70分(具體分?jǐn)?shù)未提供),在BFCL模型Agent能力評(píng)測中更是創(chuàng)下70.8分的新高,這一成績優(yōu)于Gemini 2.5-Pro和OpenAI-o1等備受矚目的閉源模型 [33[34]]。BFCL評(píng)測主要衡量模型在執(zhí)行復(fù)雜工具調(diào)用和代理任務(wù)時(shí)的能力,Qwen3的出色表現(xiàn)表明其在構(gòu)建高級(jí)AI Agent方面具有堅(jiān)實(shí)的基礎(chǔ)。此外,在反映人類偏好的ArenaHard評(píng)測中,Qwen3-235B-A22B-Thinking-2507獲得了95.6分,同樣超越了OpenAI-o1和DeepSeek-R1,這說明其生成的內(nèi)容在質(zhì)量、有用性和安全性上得到了廣泛認(rèn)可 [33[35]]。

下表匯總了Qwen系列部分關(guān)鍵模型在2025年發(fā)布的基準(zhǔn)測試中的代表性成績,以便直觀比較其性能表現(xiàn)。

模型名稱

基準(zhǔn)測試

成績

Qwen3-235B-A22B-Thinking-2507

AIME'25 (Math)

81.5 [ 33 [36] ]

LiveCodeBench (Coding)

>70 (具體分?jǐn)?shù)未提供) [ 33 [37] ]

BFCL (Agent)

70.8 [ 33 [38] ]

ArenaHard (Human Preference)

95.6 [ 33 [39] ]

Qwen3-235B-A22B-Instruct-2507

MMLU-Pro

83.0 (較舊版提升15-20pp) [ 18 [40] ]

LiveCodeBench

51.8 (較舊版提升15-20pp) [ 18 [41] ]

GPQA / SuperGPQA

強(qiáng)勁表現(xiàn) (具體分?jǐn)?shù)未提供) [ 18 [42] ]

Qwen3-32B (Thinking)

AIME'24 (Math)

81.4 [ 1 [43] ]

ZebraLogic (Logic)

72.9 [ 1 [44] ]

CodeForces Rating

2036 (98.2 percentile) [ 1 [45] ]

Qwen3-Next-80B-A3B-Thinking

SWE-Bench Verified

69.6 (世界級(jí)水平) [ 12 [46] ]

Tau2-Bench (Agent)

74.8 (超越Claude Opus 4 & DeepSeek-V3.1) [ 12 [47] ]

Qwen2.5-Max

Arena-Hard (Preference)

89.4 (領(lǐng)先于DeepSeek V3 & Claude 3.5 Sonnet) [ 4 [48] , 6 [49] ]

LiveBench (Overall Capability)

62.2 (領(lǐng)先于DeepSeek V3 & Claude 3.5 Sonnet) [ 4 [50] , 6 [51] ]

MMLU-Pro (Knowledge & Reasoning)

76.1 (落后于Claude 3.5 Sonnet) [ 4 [52] , 6 [53] ]

HumanEval (Coding)

73.2 (超越DeepSeek V3 & LLaMA 3.1-405B) [ 4 [54] , 6 [55] ]

GSM8K (Math)

94.5 (顯著超越DeepSeek V3 & LLaMA 3.1-405B) [ 4 [56] , 6 [57] ]

Qwen3-Max

SWE-Bench Verified

69.6 (世界級(jí)水平) [ 12 [58] ]

Tau2-Bench (Agent)

74.8 (超越GPT-5-Chat & Claude Opus 4) [ 12 [59] ]

SuperGPQA

81.4 [ 12 [60] ]

AIME25 (Math)

100% (集成代碼解釋器和并行計(jì)算) [ 12 [61] ]

注:表格中“pp”代表百分點(diǎn)(percentage points),“vs.”表示“相較于”。

Qwen3系列的性能提升背后,是訓(xùn)練數(shù)據(jù)量的翻倍增長。Qwen3的預(yù)訓(xùn)練數(shù)據(jù)總量達(dá)到了驚人的36萬億tokens,是Qwen2.5的兩倍之多 [1[62], 17[63]]。如此龐大的數(shù)據(jù)覆蓋了119種語言和方言,為模型的多語言能力和知識(shí)廣度奠定了堅(jiān)實(shí)基礎(chǔ) [1[64]]。在后訓(xùn)練階段,Qwen采用了創(chuàng)新的強(qiáng)到弱蒸餾(Strong-to-Weak Distillation)方法來訓(xùn)練較小的模型。該方法分為離策略蒸餾和在線策略蒸餾兩個(gè)階段,學(xué)生模型通過模仿教師模型(如Qwen3-32B或Qwen3-235B-A22B)在“思考”和“非思考”模式下的輸出來學(xué)習(xí)基本的推理和模式切換能力,然后通過在線微調(diào)進(jìn)一步縮小與教師模型的差距 [1[65]]。這種方法僅需1/10的GPU小時(shí)就能達(dá)到與強(qiáng)化學(xué)習(xí)相當(dāng)甚至更好的效果,例如Qwen3-0.6B模型通過此方法在AIME'24測試中取得了74.4分,遠(yuǎn)超RL-only方法的67.6分,同時(shí)訓(xùn)練成本僅為后者的十分之一左右 [1[66]]。這充分體現(xiàn)了Qwen在模型訓(xùn)練工程上的深厚功力。

閉源旗艦?zāi)P蚎wen2.5-Max和Qwen3-Max同樣展現(xiàn)了強(qiáng)大的競爭力。作為2025年初發(fā)布的最強(qiáng)力閉源模型,Qwen2.5-Max在多項(xiàng)綜合性評(píng)測中名列前茅。它在Arena-Hard(89.4)和LiveBench(62.2)這兩個(gè)反映真實(shí)世界用戶體驗(yàn)的基準(zhǔn)上,分別領(lǐng)先于DeepSeek V3和Claude 3.5 Sonnet [4[67], 6[68]]。在知識(shí)和編碼等基礎(chǔ)能力上,它也全面超越了DeepSeek V3和LLaMA 3.1-405B [7[69]]。然而,在一些對(duì)深度推理要求極高的基準(zhǔn)上,如MMLU-Pro和GPQA-Diamond,它略遜于Claude 3.5 Sonnet和GPT-4o,這與其定位為通用“大腦”而非專門的“推理引擎”的設(shè)計(jì)理念相符 [7[70]]。Qwen3-Max作為同年晚些時(shí)候推出的旗艦,繼承并強(qiáng)化了Qwen3的混合推理能力。它在編程(SWE-Bench Verified: 69.6)和代理能力(Tau2-Bench: 74.8)上達(dá)到了世界級(jí)水平,甚至超過了GPT-5-Chat和Claude Opus 4 [12[71]]。其在數(shù)學(xué)推理上的表現(xiàn)尤為驚人,通過集成代碼解釋器和并行測試時(shí)計(jì)算等技術(shù),在AIME25上實(shí)現(xiàn)了100%的準(zhǔn)確率 [12[72]]。更具說服力的是實(shí)戰(zhàn)表現(xiàn)。在2025年10月至11月進(jìn)行的Nof1 Alpha Arena加密貨幣交易挑戰(zhàn)賽中,Qwen3-Max憑借近70%的投資回報(bào)率位居第二,僅次于DeepSeek V3.1 Chat,而同期的Google Gemini 2.5 Pro和OpenAI GPT-5則錄得超過60%的虧損,這充分證明了其在復(fù)雜、動(dòng)態(tài)的真實(shí)決策環(huán)境中的強(qiáng)大實(shí)力 [44[73]]。

在多語言和多模態(tài)能力方面,Qwen系列同樣表現(xiàn)出色。Qwen3預(yù)訓(xùn)練覆蓋了多達(dá)119種語言和方言,使其在全球化應(yīng)用中具有天然優(yōu)勢(shì) [1[74]]。在Belebele這一涵蓋80種語言的多語言基準(zhǔn)測試中,Qwen3-32B(思考模式)在幾乎所有語言族系中都取得了優(yōu)異成績,例如在烏拉爾語系中達(dá)到91.3分,在漢藏語系中達(dá)到89.7分,整體表現(xiàn)優(yōu)于Qwen2.5-32B-Instruct和Gemma-3-27B-IT [1[75]]。在多模態(tài)領(lǐng)域,Qwen-Image-Edit在中文文本渲染基準(zhǔn)ChineseWord上得分高達(dá)94.1,遠(yuǎn)超競爭對(duì)手(如FLUX.1-dev的75.4),這凸顯了Qwen在處理亞洲語言方面的獨(dú)特技術(shù)和數(shù)據(jù)優(yōu)勢(shì) [27[76]]。綜上所述,2025年的Qwen系列通過技術(shù)創(chuàng)新和數(shù)據(jù)積累,在性能上實(shí)現(xiàn)了全面的飛躍,不僅鞏固了其在開源陣營中的領(lǐng)導(dǎo)地位,也讓其閉源旗艦?zāi)P途邆淞伺c全球頂尖模型一較高下的資本。

應(yīng)用場景與生態(tài)建設(shè):從云端到終端的全面滲透

Qwen系列的成功不僅僅停留在學(xué)術(shù)界的基準(zhǔn)測試排行榜上,更深刻地體現(xiàn)在其廣泛且深入的實(shí)際應(yīng)用中,形成了一套從企業(yè)級(jí)服務(wù)到消費(fèi)級(jí)產(chǎn)品的完整生態(tài)。2025年,Qwen通過其強(qiáng)大的技術(shù)能力、靈活的部署選項(xiàng)和開放的生態(tài)系統(tǒng),實(shí)現(xiàn)了從云端API到終端設(shè)備的全面滲透,賦能千行百業(yè),激發(fā)了開發(fā)者社區(qū)的無限創(chuàng)造力。

在企業(yè)級(jí)應(yīng)用領(lǐng)域,Qwen已經(jīng)從一個(gè)潛在的技術(shù)方案轉(zhuǎn)變?yōu)榻鉀Q實(shí)際業(yè)務(wù)痛點(diǎn)的強(qiáng)大生產(chǎn)力工具。金融行業(yè)是其應(yīng)用落地的典范。中國工商銀行基于Qwen-VL-Max多模態(tài)大模型打造的“商戶智能審核助手”,成功入選2025年北京市人工智能賦能行業(yè)發(fā)展典型案例 [28[77], 29[78]]。該系統(tǒng)利用Qwen-VL-Max強(qiáng)大的多模態(tài)深度理解能力,克服了傳統(tǒng)OCR技術(shù)在處理金融文檔時(shí)泛化能力受限、信息提取復(fù)雜、魯棒性不足和語義理解缺失等四大局限 [29[79]]。它能夠高效處理營業(yè)執(zhí)照、經(jīng)營場所照片等多種模態(tài)資料,并結(jié)合外部數(shù)據(jù)進(jìn)行風(fēng)險(xiǎn)評(píng)估,顯著提升了審核效率、風(fēng)控能力和客戶體驗(yàn) [29[80]]。在軟件開發(fā)領(lǐng)域,Qwen的價(jià)值體現(xiàn)得淋漓盡致。通義靈碼與Qwen3-Coder的組合已為開發(fā)者編寫了超過30億行代碼,插件下載量突破2000萬次 [35[81]]。據(jù)報(bào)道,某企業(yè)在使用該工具30天后,Java開發(fā)效率提升了30%,97%的活躍開發(fā)者依賴其智能補(bǔ)全功能,從而從重復(fù)性編碼工作中解放出來,專注于更有價(jià)值的創(chuàng)造性工作 [35[82]]。這直接證明了Qwen在提升軟件開發(fā)生產(chǎn)力方面的巨大商業(yè)價(jià)值。

Qwen的生態(tài)建設(shè)也為其在中小企業(yè)市場贏得了強(qiáng)勁的滲透力。阿里云通過其Model Studio平臺(tái)和“云+AI”的商業(yè)模式,為中小企業(yè)提供了極具吸引力的解決方案。例如,“萬小智”產(chǎn)品定位為中小企業(yè)的“第一個(gè)AI員工”,集成了官網(wǎng)開發(fā)、視覺設(shè)計(jì)、在線客服與內(nèi)容創(chuàng)作四大能力,能夠?qū)崿F(xiàn)分鐘級(jí)交付,其基礎(chǔ)版首年價(jià)格僅為450元,極大地降低了中小企業(yè)擁抱AI的門檻 [35[83]]。數(shù)據(jù)顯示,自2023年4月通義千問發(fā)布以來,中小企業(yè)在阿里百煉平臺(tái)上的大模型支出持續(xù)高速增長,到2025年8月相較一年前翻了約200倍,這反映出Qwen系列在下沉市場的強(qiáng)勁采納勢(shì)頭 [35[84]]。汽車行業(yè)也是Qwen切入的重要領(lǐng)域。零跑汽車于2025年6月在其C10車型中完成了OTA升級(jí),首次在智能座艙中集成了基于Qwen的語音大模型,實(shí)現(xiàn)了閑聊、知識(shí)問答和文生圖等場景功能 [32[85]]。此舉直接帶動(dòng)了該車型單月交付量突破2萬臺(tái),創(chuàng)歷史新高,顯示了Qwen技術(shù)在物聯(lián)網(wǎng)和智能硬件領(lǐng)域的商業(yè)潛力 [32[86]]。

為了支持廣泛的開發(fā)者生態(tài),Qwen采取了積極的開放策略,確保其模型能夠被輕松地部署和集成到各種環(huán)境中。Qwen模型被廣泛兼容并集成到眾多主流的AI框架和工具中,包括vLLM、SGLang、Hugging Face Transformers、Ollama、llama.cpp、Axolotl和LLaMA-Factory等 [2[87], 9[88]]。這種廣泛的兼容性極大地降低了開發(fā)者本地部署和使用的門檻,無論是希望在自己的服務(wù)器上運(yùn)行模型,還是在個(gè)人電腦上進(jìn)行實(shí)驗(yàn),都能找到合適的工具鏈。更值得注意的是,Qwen與主要芯片廠商建立了深度合作,實(shí)現(xiàn)了跨硬件的優(yōu)化。NVIDIA宣布將其TensorRT-LLM、SGLang和vLLM框架用于優(yōu)化Qwen3,AMD則宣布支持Qwen3在MI300X GPU上運(yùn)行,Arm則將Qwen3-0.6B、-1.7B、-4B等模型優(yōu)化至其CPU生態(tài)系統(tǒng),并與MNN框架結(jié)合,使其能在手機(jī)等移動(dòng)設(shè)備上流暢運(yùn)行 [23[89]]。MediaTek更是在其Dimensity 9400系列智能手機(jī)平臺(tái)上部署了Qwen3,并利用其SpD+技術(shù)實(shí)現(xiàn)了20%的推理速度提升 [23[90]]。這種從數(shù)據(jù)中心到邊緣設(shè)備的全方位硬件適配,為Qwen的廣泛應(yīng)用鋪平了道路。

Qwen的開源策略也為其贏得了全球開發(fā)者社區(qū)的高度認(rèn)可和積極參與。截至2025年,Qwen模型的累計(jì)下載量已超過3.85億次,衍生模型數(shù)量超過14萬個(gè),成為中國AI模型在全球開發(fā)者社區(qū)中反超美國同類產(chǎn)品的關(guān)鍵指標(biāo) [31[91]]。海外API聚合平臺(tái)OpenRouter的數(shù)據(jù)也顯示,阿里千問模型的全球市場份額最高時(shí)超過12.3%,位居全球第四,超越了Llama系列 [37[92]]。這種強(qiáng)大的社區(qū)影響力不僅體現(xiàn)在數(shù)字上,更體現(xiàn)在真實(shí)的商業(yè)價(jià)值和技術(shù)貢獻(xiàn)上。韓國初創(chuàng)公司Univa就是受益于Qwen開源生態(tài)的典型例子,他們使用Qwen模型將運(yùn)營成本降低了30%,避免了昂貴的閉源模型許可費(fèi)用,從而得以在激烈的市場競爭中生存和發(fā)展 [26[93]]。在學(xué)術(shù)界,Qwen的開放也極大地推動(dòng)了前沿研究。斯坦福大學(xué)和華盛頓大學(xué)的研究人員利用Qwen模型以不到50美元的成本完成了突破性工作,UC Berkeley的團(tuán)隊(duì)也以不到30美元的預(yù)算訓(xùn)練了一個(gè)基于強(qiáng)化學(xué)習(xí)的數(shù)學(xué)模型,這些成本在以往只有閉源模型才能負(fù)擔(dān)得起 [26[94]]。Qwen的開源不僅是一個(gè)技術(shù)決定,更是一種戰(zhàn)略選擇,它通過賦能全球開發(fā)者,共同塑造AI的未來,正如阿里巴巴CEO Eddie Wu所言,目標(biāo)是將Qwen打造成“AI時(shí)代的操作系統(tǒng)” [26[95]]。

市場影響與競爭格局:開源力量重塑全球AI版圖

2025年,Qwen系列大模型的發(fā)展軌跡深刻地影響了全球人工智能行業(yè)的競爭格局、市場動(dòng)態(tài)乃至國家戰(zhàn)略博弈。通過其激進(jìn)的“全尺寸”、“全模態(tài)”開源戰(zhàn)略,Qwen不僅在技術(shù)上取得了突破,更在市場層面扮演了顛覆者和引領(lǐng)者的角色,推動(dòng)了全球AI產(chǎn)業(yè)向著更加開放、普惠和多元化的方向演進(jìn)。這一進(jìn)程的核心驅(qū)動(dòng)力在于,Qwen成功地將高性能模型與開放生態(tài)相結(jié)合,打破了長期以來由少數(shù)幾家科技巨頭主導(dǎo)的閉源壟斷局面。

Qwen系列的市場影響力首先體現(xiàn)在其迅速占據(jù)的企業(yè)級(jí)市場份額和全球開發(fā)者社區(qū)的領(lǐng)先地位。根據(jù)沙利文的調(diào)研報(bào)告,2025年上半年,阿里通義在中國企業(yè)級(jí)市場的大模型日均總消耗量中占據(jù)了17.7%的份額,位列第一,其后是字節(jié)豆包(14.1%)和DeepSeek(10.3%),前三名合計(jì)占比超過40% [37[96]]。這一數(shù)據(jù)清晰地表明,阿里通義已成為中國企業(yè)客戶首選的大模型服務(wù)商之一。在全球范圍內(nèi),Qwen的開源策略也為其贏得了巨大的市場份額。海外API聚合平臺(tái)OpenRouter的數(shù)據(jù)顯示,阿里千問模型的全球API市場份額最高時(shí)曾超過12.3%,在全球排名第四,甚至超越了此前被視為全球開源模型領(lǐng)頭羊的Meta Llama系列 [37[97]]。這一成就的背后,是中國政府和企業(yè)對(duì)國產(chǎn)大模型的信任和支持。超過80%的企業(yè)表示將在未來采用開源大模型,而Qwen憑借其全面的開源戰(zhàn)略(覆蓋文本、圖像、視頻、代碼等所有模態(tài)和尺寸),成為了這一歷史趨勢(shì)的主要推動(dòng)者 [37[98]]。Qwen的開源策略極大地降低了企業(yè)應(yīng)用AI的門檻,據(jù)統(tǒng)計(jì),已有超過29萬名企業(yè)客戶通過阿里云Model Studio平臺(tái)采用Qwen模型,另有超過90,000家企業(yè)直接采用Qwen AI服務(wù) [24[99], 25[100]]。這種廣泛的市場滲透力,使得Qwen的影響力遠(yuǎn)遠(yuǎn)超出了單純的模型提供商范疇,成為推動(dòng)整個(gè)行業(yè)數(shù)字化轉(zhuǎn)型的重要力量。

Qwen的崛起也引發(fā)了全球范圍內(nèi)的廣泛關(guān)注和連鎖反應(yīng),加劇了國際間的AI競爭態(tài)勢(shì)。OpenAI曾公開表達(dá)對(duì)中國AI公司知識(shí)產(chǎn)權(quán)問題的擔(dān)憂,這反映了全球AI競爭的緊張氛圍和技術(shù)壁壘背后的地緣政治考量 [7[101]]。與此同時(shí),美國政府也迅速做出回應(yīng),出臺(tái)了旨在加強(qiáng)國內(nèi)AI能力的《Stargate項(xiàng)目》,這間接承認(rèn)了來自中國的競爭壓力 [7[102]]。Qwen的成功不僅是技術(shù)層面的競爭,也上升到了國家戰(zhàn)略的層面。阿里巴巴為此宣布在未來三年內(nèi)投入53億美元用于云基礎(chǔ)設(shè)施和AI技術(shù)研發(fā),以鞏固其在全球AI領(lǐng)域的領(lǐng)先地位 [26[103]]。這種國家意志與企業(yè)行動(dòng)的緊密結(jié)合,使得Qwen的每一次重大發(fā)布都不僅僅是商業(yè)事件,更成為觀察中美兩國在人工智能領(lǐng)域全方位競爭的一個(gè)縮影。Qwen的快速發(fā)展,迫使全球競爭對(duì)手重新評(píng)估其技術(shù)路線和市場策略,從而加速了整個(gè)行業(yè)的創(chuàng)新步伐。

更重要的是,Qwen通過其開放生態(tài),催生了新一輪的AI應(yīng)用浪潮,尤其是在AI Agent(智能體)領(lǐng)域的爆發(fā)式增長。Qwen原生支持Model Context Protocol (MCP),并結(jié)合Qwen-Agent框架,顯著簡化了模型調(diào)用外部工具的復(fù)雜性,為構(gòu)建自主決策和執(zhí)行任務(wù)的智能體提供了堅(jiān)實(shí)的基礎(chǔ) [17[104], 33[105]]。這種能力極大地降低了Agent應(yīng)用的開發(fā)門檻,吸引了大量開發(fā)者投身其中。Qwen的開源特性使得企業(yè)和個(gè)人可以自由地對(duì)其進(jìn)行定制和修改,以適應(yīng)特定的業(yè)務(wù)流程,從而催生了大量垂直領(lǐng)域的Agent應(yīng)用。這種從“模型即服務(wù)”到“平臺(tái)即服務(wù)”的轉(zhuǎn)變,正在改變AI應(yīng)用的開發(fā)范式。此外,阿里巴巴在商業(yè)模式上的創(chuàng)新也值得關(guān)注。它通過Model Studio API平臺(tái),為用戶提供靈活的按需付費(fèi)模式,而非傳統(tǒng)的固定訂閱制 [38[106]]。例如,Qwen3-Max的定價(jià)根據(jù)上下文長度動(dòng)態(tài)變化,從每百萬輸入tokens 1.20美元到3美元不等,輸出tokens則為6至15美元,同時(shí)還提供上下文緩存和批量處理等折扣 [38[107]]。這種模式吸引了大量成本敏感的企業(yè)用戶,也為整個(gè)行業(yè)提供了新的商業(yè)思路??偠灾?,Qwen在2025年的市場表現(xiàn),通過其成功的開源戰(zhàn)略和強(qiáng)大的技術(shù)實(shí)力,深刻地重塑了全球AI的版圖,將競爭推向了一個(gè)更加開放和多元的時(shí)代。

關(guān)鍵進(jìn)展時(shí)間線梳理:2025年Qwen系列發(fā)展脈絡(luò)

2025年是Qwen系列大模型實(shí)現(xiàn)質(zhì)變和跨越式發(fā)展的關(guān)鍵一年。從年初發(fā)布與全球頂尖閉源模型正面競爭的旗艦?zāi)P?,到年中推出革命性的混合推理架?gòu),再到年末構(gòu)建覆蓋全模態(tài)的龐大模型家族,Qwen在這一年中密集發(fā)布了多個(gè)重磅產(chǎn)品,其發(fā)展節(jié)奏之快、技術(shù)迭代之深,清晰地勾勒出一條從技術(shù)追趕者到生態(tài)引領(lǐng)者的演進(jìn)路徑。以下將按照季度順序,梳理Qwen系列在2025年的關(guān)鍵進(jìn)展。

第一季度 (2025年1月 - 3月): 競爭開局與多模態(tài)初探

2025年的序幕由Qwen2.5-Max的發(fā)布拉開,這是阿里巴巴當(dāng)時(shí)最先進(jìn)的閉源旗艦?zāi)P?,旨在與GPT-4o、Claude 3.5 Sonnet等頂級(jí)模型展開直接競爭 [3[108], 4[109]]。該模型于2025年1月29日正式發(fā)布,采用了高效的Mixture-of-Experts (MoE) 架構(gòu),并基于20萬億tokens的海量數(shù)據(jù)進(jìn)行訓(xùn)練 [4[110], 8[111]]。在隨后的基準(zhǔn)測試中,Qwen2.5-Max表現(xiàn)搶眼,尤其在Arena-Hard(89.4)和LiveBench(62.2)等綜合性評(píng)測中超越了對(duì)手,確立了其作為頂級(jí)模型的地位 [4[112], 6[113]]。這一發(fā)布標(biāo)志著Qwen正式進(jìn)入與全球AI領(lǐng)導(dǎo)者同臺(tái)競技的舞臺(tái)。

進(jìn)入3月,Qwen的戰(zhàn)略視野開始向多模態(tài)領(lǐng)域擴(kuò)展。3月24日,Qwen2.5-VL-32B-Instruct模型發(fā)布,作為Qwen2.5-VL的繼任者,它在性能上超越了前代及GPT-4o Mini,并采用了Apache 2.0許可證,是完全開源的 [8[114]]。緊接著在3月26日,Qwen2.5-Omni-7B模型問世,這是一個(gè)支持文本、圖像、視頻和音頻輸入,并能生成文本和音頻輸出的多模態(tài)模型,其實(shí)時(shí)語音聊天能力對(duì)標(biāo)GPT-4o,同樣開源 [8[115]]。這兩款模型的發(fā)布,標(biāo)志著Qwen開始構(gòu)建一個(gè)覆蓋文本、圖像、音頻、視頻的初步多模態(tài)矩陣,為其后續(xù)的全模態(tài)戰(zhàn)略奠定了基礎(chǔ)。

第二季度 (2025年4月 - 6月): 范式革命與生態(tài)奠基

2025年4月28日,Qwen系列迎來了一個(gè)里程碑式的更新——Qwen3模型家族的發(fā)布 [8[116]]。這次發(fā)布的核心是革命性的“混合推理模式”(Hybrid Reasoning),它首次在一個(gè)模型中集成了“思考模式”和“非思考模式”,允許用戶根據(jù)任務(wù)需求動(dòng)態(tài)切換或分配計(jì)算資源,從而在效率和深度之間取得平衡 [17[117], 33[118]]。Qwen3系列包括了六款密度模型(0.6B至32B參數(shù))和兩款MoE模型(30B-A3B和235B-A22B),全部采用Apache 2.0許可證開源 [1[119], 17[120]]。更重要的是,其預(yù)訓(xùn)練數(shù)據(jù)量翻倍至36萬億tokens,覆蓋119種語言,性能得到全面提升 [1[121], 17[122]]。Qwen3的發(fā)布被技術(shù)負(fù)責(zé)人林俊旸稱為“混合推理模型”,是對(duì)簡單需求低算力秒回、復(fù)雜問題可多步驟深度思考能力的集成 [33[123]]。

隨著Qwen3的發(fā)布,Qwen3系列內(nèi)部也在不斷迭代。5月和7月,Qwen3-235B-A22B-Instruct-2507和Qwen3-235B-A22B-Thinking-2507相繼發(fā)布 [18[124]]。這兩個(gè)版本在原有基礎(chǔ)上進(jìn)行了性能增強(qiáng),特別是在指令遵循、邏輯推理、數(shù)學(xué)、科學(xué)、編碼和工具使用等方面均有顯著提升 [18[125]]。Instruct-2507版本在MMLU-Pro等基準(zhǔn)測試中取得了83.0的高分,而Thinking-2507版本則在AIME、SuperGPQA等推理密集型任務(wù)上表現(xiàn)更為出色,達(dá)到了開源模型中的SOTA水平 [18[126]]。這一系列的更新和完善,使得Qwen3成為2025年最受關(guān)注的開源模型之一。到4月底,Qwen模型家族的全球下載量已超過3億次,衍生模型超過10萬個(gè),顯示出其強(qiáng)大的社區(qū)號(hào)召力 [33[127]]。

第三季度 (2025年7月 - 9月): 專業(yè)化深化與極致效率探索

進(jìn)入下半年,Qwen的戰(zhàn)略重心轉(zhuǎn)向了模型的專業(yè)化和極致效率。7月22日,Qwen3-Coder-480B-A35B-Instruct模型發(fā)布,這是一個(gè)擁有4800億總參數(shù)的巨型代碼生成模型,專為自動(dòng)化軟件開發(fā)、Agentic Coding和瀏覽器使用等復(fù)雜任務(wù)而設(shè)計(jì) [18[128]]。它在SWE-Bench Verified等基準(zhǔn)測試中表現(xiàn)出色,性能與Claude Sonnet 4相當(dāng),標(biāo)志著Qwen在專業(yè)編碼領(lǐng)域達(dá)到了世界頂尖水平 [18[129], 42[130]]。

緊隨其后,7月25日,Qwen3-235B-A22B-Thinking-2507正式發(fā)布,進(jìn)一步強(qiáng)化了Qwen3系列在復(fù)雜推理任務(wù)上的能力 [18[131]]。到了9月,Qwen在模型效率方面取得了重大突破。9月5日,閉源旗艦?zāi)P蚎wen3-Max發(fā)布,它繼承了Qwen3的混合推理能力,并在編程和代理能力上再次刷新紀(jì)錄,SWE-Bench Verified得分達(dá)到69.6,Tau2-Bench得分74.8,均超越了當(dāng)時(shí)的頂級(jí)閉源模型 [12[132]]。幾乎在同一時(shí)期,9月10日,新一代高效模型Qwen3-Next發(fā)布 [8[133]]。Qwen3-Next采用了更為激進(jìn)的超稀疏MoE架構(gòu)和混合注意力機(jī)制,旨在實(shí)現(xiàn)極致的推理效率。其80B參數(shù)模型激活僅需3B,訓(xùn)練成本遠(yuǎn)低于Qwen3-32B,但性能卻能超越它們,尤其在超長上下文任務(wù)上表現(xiàn)出色 [8[134], 11[135]]。9月22日,Qwen3-Omni模型發(fā)布,這是一個(gè)能夠處理文本、圖像、音頻和視頻的通用多模態(tài)模型,支持實(shí)時(shí)流式響應(yīng),進(jìn)一步完善了其全模態(tài)產(chǎn)品線 [8[136]]。這一系列在短時(shí)間內(nèi)密集推出的專業(yè)化和高效模型,清晰地表明Qwen的戰(zhàn)略目標(biāo)已經(jīng)從單純的性能競賽,擴(kuò)展到構(gòu)建一個(gè)能夠驅(qū)動(dòng)下一代AI應(yīng)用開發(fā)的、覆蓋全場景的平臺(tái)級(jí)生態(tài)。

第四季度 (2025年10月 - 12月): 實(shí)戰(zhàn)檢驗(yàn)與生態(tài)閉環(huán)

第四季度的重點(diǎn)是對(duì)其先進(jìn)技術(shù)進(jìn)行實(shí)戰(zhàn)檢驗(yàn)和進(jìn)一步豐富其多模態(tài)工具鏈。10月至11月期間,Qwen3-Max在Nof1舉辦的Alpha Arena加密貨幣交易挑戰(zhàn)賽中表現(xiàn)出色,以近70%的回報(bào)率位居第二,其激進(jìn)的投資策略與Gemini 2.5 Pro和GPT-5的保守策略形成了鮮明對(duì)比,有力地證明了其在復(fù)雜動(dòng)態(tài)決策環(huán)境中的強(qiáng)大實(shí)戰(zhàn)能力 [44[137]]。

在多模態(tài)領(lǐng)域,Qwen繼續(xù)深化其布局。12月,Qwen-Image-Edit-Plus作為Qwen系列首個(gè)圖像生成模型發(fā)布,參數(shù)規(guī)模達(dá)到200億,具備卓越的復(fù)雜文本渲染能力,在多個(gè)公開基準(zhǔn)測試中達(dá)到SOTA水平,進(jìn)一步鞏固了Qwen在視覺創(chuàng)作領(lǐng)域的領(lǐng)導(dǎo)地位 [32[138]]。這一系列的進(jìn)展,標(biāo)志著Qwen在2025年不僅完成了技術(shù)上的自我超越,更通過豐富的應(yīng)用場景和強(qiáng)大的生態(tài)建設(shè),為其在2026年及以后的發(fā)展奠定了堅(jiān)實(shí)的基礎(chǔ)。


參考資料

[14: https://medium.com/data-science-collective/understanding-qwen-v2-my-personal-take-ed5e8ac5f630

15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

[15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

[1: https://arxiv.org/pdf/2505.09388

[5]

17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[6]

[1: https://arxiv.org/pdf/2505.09388

[7]

[11: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list&utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bIpWoAA0d8Ugha6WmwlzJEFeLwluYNZSx-7AAH9r5Kdq3UTcUJwY1X4RnbL0IOgx_32-d

[8]

13: https://developer.nvidia.com/blog/new-open-source-qwen3-next-models-preview-hybrid-moe-architecture-delivering-improved-accuracy-and-accelerated-parallel-processing-across-nvidia-platform/

[9]

[9: https://github.com/QwenLM/Qwen3

[10]

33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[11]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[12]

[1: https://arxiv.org/pdf/2505.09388

[13]

17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[14]

[15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

[15]

[9: https://github.com/QwenLM/Qwen3

[16]

[9: https://github.com/QwenLM/Qwen3

[17]

14: https://medium.com/data-science-collective/understanding-qwen-v2-my-personal-take-ed5e8ac5f630

[15: https://www.techrxiv.org/users/638823/articles/1270667/master/file/data/Qwen_2_5/Qwen_2_5.pdf

[21: https://docs.vllm.ai/en/latest/features/quantization/quantized_kvcache/

[22: https://arxiv.org/html/2510.05373v1

[21]

[30: https://blog.csdn.net/2401_85375151/article/details/153968920

[22]

[28: https://finance.sina.com.cn/stock/bxjj/2025-07-22/doc-infhiiyu2276084.shtml

[23]

29: https://cloud.tencent.com/developer/news/2852332

[24]

[16: https://www.labellerr.com/blog/qwen-image/

[25]

27: https://collabnix.com/qwen-image-edit-the-ultimate-technical-guide-to-ai-powered-image-editing-2025/

[26]

[30: https://blog.csdn.net/2401_85375151/article/details/153968920

[27]

32: https://www.aliyun.com/product/tongyi

[28]

[30: https://blog.csdn.net/2401_85375151/article/details/153968920

[29]

32: https://www.aliyun.com/product/tongyi

[30]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[31]

[24: https://www.grabon.in/indulge/tech/qwen-ai-users/

[32]

[26: https://www.alibabacloud.com/blog/602562

[33]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[34]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[35]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[36]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[37]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[38]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[39]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[40]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[41]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[42]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[43]

[1: https://arxiv.org/pdf/2505.09388

[44]

[1: https://arxiv.org/pdf/2505.09388

[45]

[1: https://arxiv.org/pdf/2505.09388

[46]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[47]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[48]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[49]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[50]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[51]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[52]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[53]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[54]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[55]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[56]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[57]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[58]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[59]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[60]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[61]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[62]

[1: https://arxiv.org/pdf/2505.09388

[63]

17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[64]

[1: https://arxiv.org/pdf/2505.09388

[65]

[1: https://arxiv.org/pdf/2505.09388

[66]

[1: https://arxiv.org/pdf/2505.09388

[67]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[68]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[69]

[7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

[70]

[7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

[71]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[72]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[73]

[44: https://finance.yahoo.com/news/deepseek-qwen-ai-besting-chatgpt-135433659.html

[74]

[1: https://arxiv.org/pdf/2505.09388

[75]

[1: https://arxiv.org/pdf/2505.09388

[76]

[27: https://collabnix.com/qwen-image-edit-the-ultimate-technical-guide-to-ai-powered-image-editing-2025/

[77]

[28: https://finance.sina.com.cn/stock/bxjj/2025-07-22/doc-infhiiyu2276084.shtml

[78]

29: https://cloud.tencent.com/developer/news/2852332

[79]

[29: https://cloud.tencent.com/developer/news/2852332

[80]

[29: https://cloud.tencent.com/developer/news/2852332

[81]

[35: https://www.51cto.com/article/826441.html

[82]

[35: https://www.51cto.com/article/826441.html

[83]

[35: https://www.51cto.com/article/826441.html

[84]

[35: https://www.51cto.com/article/826441.html

[85]

[32: https://www.aliyun.com/product/tongyi

[86]

[32: https://www.aliyun.com/product/tongyi

[87]

[2: https://qwenlm.github.io/blog/qwen1.5/

[88]

9: https://github.com/QwenLM/Qwen3

[89]

[23: https://www.alibabacloud.com/blog/qwen-ecosystem-expands-rapidly-accelerating-ai-adoption-across-industries_602330

[90]

[23: https://www.alibabacloud.com/blog/qwen-ecosystem-expands-rapidly-accelerating-ai-adoption-across-industries_602330

[91]

[31: https://www.eet-china.com/mp/a452027.html

[92]

[37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

[93]

[26: https://www.alibabacloud.com/blog/602562

[94]

[26: https://www.alibabacloud.com/blog/602562

[95]

[26: https://www.alibabacloud.com/blog/602562

[96]

[37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

[97]

[37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

[98]

[37: http://jjckb.xinhuanet.com/20250901/e2e3c1bd2ab245b7a89cc1f54ab886ef/c.html

[99]

[24: https://www.grabon.in/indulge/tech/qwen-ai-users/

[100]

25: https://www.shakudo.io/blog/top-9-large-language-models

[101]

[7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

[102]

[7: https://arbisoft.com/blogs/is-alibaba-s-qwen2-5-max-doing-something-extraordinary-here-s-what-you-need-to-know

[103]

[26: https://www.alibabacloud.com/blog/602562

[104]

[17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[105]

33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[106]

[38: https://felloai.com/2025/09/what-is-the-best-ai-model-in-september-2025-ultimate-comparison/

[107]

[38: https://felloai.com/2025/09/what-is-the-best-ai-model-in-september-2025-ultimate-comparison/

[108]

[3: https://www.datacamp.com/blog/qwen-2-5-max

[109]

4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[110]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[111]

8: https://en.wikipedia.org/wiki/Qwen

[112]

[4: https://medium.com/@jatingargiitk/all-you-need-to-know-about-qwen2-5-max-cc266858f27d

[113]

6: https://www.linkedin.com/pulse/rise-chinese-ai-models-qwen-25-max-features-deepseek-v3-comparison-1degc

[114]

[8: https://en.wikipedia.org/wiki/Qwen

[115]

[8: https://en.wikipedia.org/wiki/Qwen

[116]

[8: https://en.wikipedia.org/wiki/Qwen

[117]

[17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[118]

33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[119]

[1: https://arxiv.org/pdf/2505.09388

[120]

17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[121]

[1: https://arxiv.org/pdf/2505.09388

[122]

17: https://www.alibabacloud.com/en/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1

[123]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[124]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[125]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[126]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[127]

[33: https://cn.wicinternet.org/2025-05/22/content_38040905.htm

[128]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[129]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[130]

42: https://ashishchadha11944.medium.com/gpt-5-in-2025-leader-of-the-new-llm-era-benchmarks-and-rival-comparison-5786e25b5ae4

[131]

[18: https://llmharddrivestore.com/blog/alibaba-qwen-three-ai-models-2025

[132]

[12: https://dev.to/czmilo/qwen3-max-2025-complete-release-analysis-in-depth-review-of-alibabas-most-powerful-ai-model-3j7l

[133]

[8: https://en.wikipedia.org/wiki/Qwen

[134]

[8: https://en.wikipedia.org/wiki/Qwen

[135]

11: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list&utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bIpWoAA0d8Ugha6WmwlzJEFeLwluYNZSx-7AAH9r5Kdq3UTcUJwY1X4RnbL0IOgx_32-d

[136]

[8: https://en.wikipedia.org/wiki/Qwen

[137]

[44: https://finance.yahoo.com/news/deepseek-qwen-ai-besting-chatgpt-135433659.html

[138]

[32: https://www.aliyun.com/product/tongyi

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
交警私下透露:車險(xiǎn)別買全險(xiǎn),只買這2樣,每年白省2000塊

交警私下透露:車險(xiǎn)別買全險(xiǎn),只買這2樣,每年白省2000塊

老特有話說
2025-12-27 14:45:28
臺(tái)北持續(xù)搖晃近1分鐘!臺(tái)灣海域突發(fā)6.6級(jí)地震,多地震感強(qiáng)烈:“樓在晃,我以為是我暈了”

臺(tái)北持續(xù)搖晃近1分鐘!臺(tái)灣海域突發(fā)6.6級(jí)地震,多地震感強(qiáng)烈:“樓在晃,我以為是我暈了”

新民晚報(bào)
2025-12-27 23:52:45
“奶奶喜喪,能來送送最后一程嗎?”哈爾濱女子因朋友少謙卑求助,眾多網(wǎng)友冒大雪趕來

“奶奶喜喪,能來送送最后一程嗎?”哈爾濱女子因朋友少謙卑求助,眾多網(wǎng)友冒大雪趕來

瀟湘晨報(bào)
2025-12-27 19:16:16
83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆 給阿森納施壓

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆 給阿森納施壓

葉青足球世界
2025-12-27 22:22:52
吃他汀猝死的人增多?醫(yī)生含淚告誡:天冷吃他汀,必須多關(guān)注8點(diǎn)

吃他汀猝死的人增多?醫(yī)生含淚告誡:天冷吃他汀,必須多關(guān)注8點(diǎn)

全球軍事記
2025-12-27 17:24:58
沒想到,身價(jià)已暴漲10倍,網(wǎng)友:雞蛋都快配不上它了

沒想到,身價(jià)已暴漲10倍,網(wǎng)友:雞蛋都快配不上它了

魯中晨報(bào)
2025-12-26 16:01:12
姜昆徹底不裝了:此生無悔入華夏,家在加利福尼亞!咋啦?

姜昆徹底不裝了:此生無悔入華夏,家在加利福尼亞!咋啦?

細(xì)雨中的呼喊
2025-12-26 17:22:45
荒誕到什么地步,才會(huì)衍生出這樣騙局!

荒誕到什么地步,才會(huì)衍生出這樣騙局!

胖胖說他不胖
2025-12-27 10:00:10
華為新機(jī)突然上架:12月27日, 正式開售

華為新機(jī)突然上架:12月27日, 正式開售

科技堡壘
2025-12-27 11:34:40
前一夜還劍拔弩張,今天40分鐘就談攏,打了20天的泰柬為何突然停手?

前一夜還劍拔弩張,今天40分鐘就談攏,打了20天的泰柬為何突然停手?

上觀新聞
2025-12-27 17:32:06
借3500元10天后要還4970元,蘋果應(yīng)用商場一借款A(yù)pp遭投訴:未審核強(qiáng)制放款,私人賬戶轉(zhuǎn)賬,年化利率超1500%

借3500元10天后要還4970元,蘋果應(yīng)用商場一借款A(yù)pp遭投訴:未審核強(qiáng)制放款,私人賬戶轉(zhuǎn)賬,年化利率超1500%

大風(fēng)新聞
2025-12-27 21:18:11
嚴(yán)查個(gè)人收入?2026年如果你的賬戶收入“超過這個(gè)數(shù)”,要注意了

嚴(yán)查個(gè)人收入?2026年如果你的賬戶收入“超過這個(gè)數(shù)”,要注意了

李博世財(cái)經(jīng)
2025-12-27 17:19:03
欣旺達(dá)“秘不發(fā)喪”的傳聞終被揭開!是封裝的鍋,還是電芯的命?

欣旺達(dá)“秘不發(fā)喪”的傳聞終被揭開!是封裝的鍋,還是電芯的命?

生活魔術(shù)專家
2025-12-27 14:16:04
突發(fā)兩大利空!證監(jiān)會(huì)立案調(diào)查,3萬人要哭了!下周這類股會(huì)大跌

突發(fā)兩大利空!證監(jiān)會(huì)立案調(diào)查,3萬人要哭了!下周這類股會(huì)大跌

虎哥閑聊
2025-12-27 12:25:54
姜昆“美國唱紅歌”事件再度升級(jí),郭德綱和寧靜的話,一針見血

姜昆“美國唱紅歌”事件再度升級(jí),郭德綱和寧靜的話,一針見血

得得電影
2025-12-26 13:58:03
他們吸過毒,曾經(jīng)是“爛人”,想要個(gè)機(jī)會(huì)

他們吸過毒,曾經(jīng)是“爛人”,想要個(gè)機(jī)會(huì)

大風(fēng)新聞
2025-12-27 15:04:03
唐伯虎真跡現(xiàn)身美國,世上僅此一件,網(wǎng)友:讓當(dāng)代書家汗顏

唐伯虎真跡現(xiàn)身美國,世上僅此一件,網(wǎng)友:讓當(dāng)代書家汗顏

幸福娃3790
2025-12-04 11:10:09
93分15板13助!就在今天,79年一遇的NBA奇跡誕生了

93分15板13助!就在今天,79年一遇的NBA奇跡誕生了

籃球大視野
2025-12-27 19:51:50
75歲港星小36歲未婚妻被曝已婚,冬至與丈夫在老家吃飯,兒子16歲

75歲港星小36歲未婚妻被曝已婚,冬至與丈夫在老家吃飯,兒子16歲

觀察鑒娛
2025-12-27 10:00:22
演員王星自曝被騙緬甸時(shí)手機(jī)被人拿走刷了數(shù)萬元網(wǎng)貸,回國后自己分期還款;透露有人找他出演“人口販賣”題材影片,但都拒絕了

演員王星自曝被騙緬甸時(shí)手機(jī)被人拿走刷了數(shù)萬元網(wǎng)貸,回國后自己分期還款;透露有人找他出演“人口販賣”題材影片,但都拒絕了

揚(yáng)子晚報(bào)
2025-12-27 18:49:32
2025-12-28 00:31:00
機(jī)器學(xué)習(xí)與Python社區(qū) incentive-icons
機(jī)器學(xué)習(xí)與Python社區(qū)
機(jī)器學(xué)習(xí)算法與Python
3235文章數(shù) 11081關(guān)注度
往期回顧 全部

科技要聞

小米也漲價(jià)了!業(yè)界稱終端再不漲明年必虧

頭條要聞

美媒:特朗普顯然觸及了中國的紅線 中方怒了

頭條要聞

美媒:特朗普顯然觸及了中國的紅線 中方怒了

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

張昊唯逃稅涉黃風(fēng)波落幕:法院認(rèn)定朋友造謠

財(cái)經(jīng)要聞

注意,開始拉物價(jià)了!

汽車要聞

好音響比大屏更重要?車企開始“聽”用戶的

態(tài)度原創(chuàng)

游戲
藝術(shù)
旅游
健康
公開課

我真幸運(yùn):《泰拉瑞亞》1.4.5更新定檔1月份!

藝術(shù)要聞

震撼!Tamara Dean的水中人像攝影,油畫般的絕美畫面!

旅游要聞

忻州古城元旦節(jié)目單出爐!

這些新療法,讓化療不再那么痛苦

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版