国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

讓 Anthropic 破防的「蒸餾」風波,美國 AI 大牛潑冷水:中國 AI 成功不靠走捷徑

0
分享至

Anthropic 昨天點名 DeepSeek、月之暗面、MiniMax 三家中國 AI 實驗室「蒸餾」Claude 模型,全網(wǎng)炸鍋。

對于此事件,RLHF (基于人類反饋的強化學習)領域最知名的研究者之一,《RLHF》一書的作者 Nathan Lambert 指出,這件事沒有人們想象的那么嚴重,但也沒有那么簡單。

他認為,中國 AI 公司的基礎設施非常好,取得了很多創(chuàng)新,也在攻克各種技術難題,但它們?nèi)〉眠@樣的結果,靠的并不是「走捷徑」。

在討論蒸餾這件事之前,先看看 Lambert 的話為什么值得聽。

Nathan Lambert 是 Allen AI 研究所的科學家,博士畢業(yè)于加州大學伯克利分校,師從機器人領域的著名學者 Pieter Abbeel。他并非 RLHF 技術的發(fā)明者,但他寫的《RLHF》這本開源書籍,如今是 AI 從業(yè)者理解大模型訓練流程的標準參考材料之一。

和到處都是的 AI 網(wǎng)紅不一樣,他是真正上手訓練過大模型的人。

在 Anthropic 博客發(fā)出的當天,Lambert 就發(fā)布了一篇詳細分析文章《蒸餾對于中國大模型到底有多重要?》。他的核心論點,和主流媒體的解讀方向截然不同,也比一般網(wǎng)友更加深入和全面。


蒸餾是什么,Anthropic 又說了什么?

首先我們來看 Anthropic 指控的核心:「蒸餾」(distillation)。

它指的是讓弱模型學習強模型的輸出,從而快速獲得相似能力。

Anthropic 指控三家公司通過約 2.4 萬個虛假賬號,在違反服務條款和地區(qū)訪問限制的情況下,用 Claude 生成了超過 1600 萬次對話,用于訓練各自的模型。

博客還附上了安全警告:非法蒸餾出來的模型可能缺失原模型的安全護欄,一旦被用于網(wǎng)絡攻擊、生物武器研發(fā)或大規(guī)模監(jiān)控,后果難以預測。

Anthropic 把這套基礎設施叫做「九頭蛇集群」(hydra cluster)——多達數(shù)萬個賬號的分布式網(wǎng)絡,流量同時分散在 Anthropic 自己的 API 和多個第三方 API 聚合平臺上。

在最極端的案例里,一個代理網(wǎng)絡同時管理超過 2 萬個虛假賬號,還把蒸餾流量混入普通用戶請求流里,用來規(guī)避檢測算法。這種網(wǎng)絡沒有單點故障,封掉一個賬號,馬上換一個。

海外媒體隨即跟進,復述了 Anthropic 的話術。然而這套敘事邏輯很快就翻車了:畢竟「蒸餾」這件事美國 AI 公司訓練的時候也會做,更何況 Anthropic 自己也有類似行為:


以及:

但 Lambert 更加冷靜,他認為要先把這三家中國 AI 實驗室分開來看。

Lambert 指出,Anthropic 把三家公司并排列在同一篇博客里,掩蓋了一個關鍵差異:它們做的根本不是同一件事,量級天差地別,動機也各有側(cè)重。

按照 Anthropic 的指控,DeepSeek 的蒸餾數(shù)量最少,只有 15 萬次,但手法更精準。與其直接收集答案,Anthropic 指控 DeepSeek 在做的是批量生產(chǎn)思維鏈 (chain-of-thought)訓練數(shù)據(jù)。

要的不是「你得出了什么結論」,而是得到結論的過程。

但 15 萬次是個什么體量?Lambert 認為,這點數(shù)據(jù)對 DeepSeek 傳聞中的 V4 模型或任何模型整體訓練的影響可以忽略不計,「更像是某個小團隊在內(nèi)部做實驗,大概率連訓練負責人都不知道?!?/strong>


月暗的規(guī)模就不是「可以忽略」了:340 萬次交互,目標集中在智能體推理、、工具調(diào)用、代碼與數(shù)據(jù)分析、computer-use 開發(fā)、計算機視覺等方向——這些方向當中,大部分都是 Claude 近期最受企業(yè)客戶歡迎的能力組合。

Anthropic 指出三家里流量最大的是 MiniMax,約 1300 萬次,目標是代理編碼、工具調(diào)用和復雜任務編排。

月暗和 MiniMax 相加約 1650 萬次,按對話平均 token 量估算,總量大約在 1500 億到 4000 億 token 之間,折合數(shù)百到上千萬美元的 token 成本。

但問題是,只盯著蒸餾看,其實有很大問題

蒸餾的天花板在哪里?

這才是 Lambert 真正想說的部分,也是整件事里最被忽視的地方。

把強模型的輸出喂給弱模型,弱模型能快速獲得類似能力——這個邏輯本身成立,Lambert 沒有否認。但他指出了一個沒人說清楚的問題:蒸餾的天花板到底在哪里,取決于你想要的是什么類型的能力。

作為 RLHF 方面的專家,Lambert 認為,當前最頂尖的模型訓練,已經(jīng)高度依賴強化學習(RL)。而 RL 和蒸餾在本質(zhì)上是兩種不同的事情:

蒸餾是模仿,學強模型的輸出,把它的「答案形狀」復制過來;RL 是探索,模型必須大量自己推理、自己生成、在錯誤里反復迭代,從試錯中提煉能力。

換言之,真正強大的模型,需要的從來不只是正確答案,而往往要靠模型自己摸索出來的解題路徑,這是依靠蒸餾別人 API 的輸出,得不到的東西。


以 DeepSeek 自己做的蒸餾嘗試為例:基于隔壁千問蒸餾自家的 R1 模型后得到的 DeepSeek-R1-Distill-Qwen 1.5B 這個小模型,僅靠 7000 條樣本和極低的計算成本,就在 AIME24 數(shù)學競賽基準上超越了 OpenAI 的 o1-preview。

但關鍵在于:這個提升等多仰仗強化學習的結果,而非來自蒸餾這個行為本身。

換句話說,蒸餾能幫你更快「熱身」,要真正到達頂級水平,還是得靠自己跑 RL。

不同模型之間的數(shù)據(jù)分布差異

Lambert 還指出了一個技術層面很少被外界提及的問題:不同模型之間存在微妙的數(shù)據(jù)分布差異。

把 Claude 的輸出直接喂給另一個架構的模型,不一定有效,有時甚至會產(chǎn)生干擾。兩個模型內(nèi)部表征空間的差異,會讓「老師」的回答在「學生」那里引發(fā)意想不到的偏差。

這意味著蒸餾從來不是「拿來用就行」的事,而是需要大量工程工作才能真正發(fā)揮效果。這本身就是一個研究課題。

這也是為什么 Lambert 將 Anthropic 所指控的「蒸餾」行為,看作是一種創(chuàng)新的做法,可以理解為試圖攻克這一研究課題的努力。


Anthropic 的殺手锏,恰恰最難蒸餾

Anthropic 點名的三家公司,抓取的重心都落在代理行為 (agentic behavior) 這同一個方向上,包括 AI 自主規(guī)劃、工具調(diào)用、分解復雜任務并逐步執(zhí)行的能力等。

這是 Claude 目前最突出的方向,也是 Anthropic 最不想被復制的能力。

但 Lambert 的判斷是,這些能力恰恰也是最難通過蒸餾獲得的。

正如前面提到,一個強大的 AI agent,強大之處從來不在于知道或者訓練過正確答案,而是「在面對沒見過的情況時能自主探索出解決路徑」,可以理解為一種 0-shot 或 few-shot 實現(xiàn) SOTA 效果的能力。

這個過程中產(chǎn)生的價值,體現(xiàn)在推理軌跡,而推理軌跡是很難通過蒸餾習得的——至少現(xiàn)在是這樣。

DeepSeek-R1-Distill(蒸餾模型)和 DeepSeek-R1(蒸餾對象)之間的差距,是 Lambert 論點最直接的例證。

在格式化的數(shù)學推理任務上,前者表現(xiàn)不錯;但在需要自主探索、動態(tài)規(guī)劃的復雜代理任務上,兩者的差距是真實存在的。


為什么 Anthropic 現(xiàn)在公開說

Lambert 有一個判斷,很多人可能都有同感:這次 Anthropic 公開點名中國 AI 公司,「技術防御」壓根不是首要動機。

在 Anthropic 這篇博客發(fā)出的幾天前,美國國防部剛剛威脅 Anthropic 配合提供「不受限制的使用權限」,否則就將做出對后者不利的安排,比如將其標記為「供應鏈危險」,也即無法進入國防/政府供應商名單。

Anthropic 現(xiàn)在處于一個「既要又要」的兩難境地:既想維持安全、不反人性的模型定位和公司形象,又不愿意錯過美國政府的大單。

Lambert 指出了一個根本矛盾:美國的學術界和開源模型開發(fā)者也在做蒸餾行為,但包括 Anthropic 在內(nèi)的大廠并沒有對它們做出實質(zhì)性的打擊。如果僅因為對方是中國公司,未免地緣的意味太重了。

結果就是,Anthropic 這篇博客與其說是報告一個重大技術風險事件……其實更像是一封「投名狀」。


雙標

關于 Anthropic 在這件事上的立場,有一個繞不開的背景。

APPSO 在昨天的文章里也有提到:

2024 年年初,美國某倉庫里,工人們把一本本新書送進機器,切掉書脊,掃描,然后把紙送去回收。下令做這件事的是 Anthropic,項目內(nèi)部代號「巴拿馬」,目標是以破壞性方式掃描全球所有書籍——Anthropic不希望外界知道他們做了這件事。

2021 年,Anthropic 聯(lián)合創(chuàng)始人 Ben Mann 在 11 天里從盜版網(wǎng)站 LibGen 下載了大量侵權書籍;次年,另一個公開宣稱「在大多數(shù)國家故意違反版權法」的網(wǎng)站 Pirate Library Mirror 上線,Mann 把鏈接發(fā)給同事,留言:「來得正是時候?。?!」

在后來的書籍版權訴訟中,Anthropic 被迫支付 15 億美元和解金,折算下來每本書約賠 3000 美元。

斯坦福和耶魯?shù)难芯空甙l(fā)現(xiàn),Claude 3.7 Sonnet 在特定條件下會以 95.8% 的準確率「近乎逐字逐句」地輸出《哈利波特》等受版權保護的作品——這不僅與 Anthropic 長期以來關于「模型只是學習了語言規(guī)律」的說法背道而馳,更讓該公司對任何人的「蒸餾」指控顯得缺乏底氣。

Futurism 的標題寫得很直接:「Anthropic 對 DeepSeek 未經(jīng)授權復制 AI 大發(fā)雷霆——考慮到它是怎么構建 Claude 的,這相當諷刺?!?/p>


Musk 在 X 上也補了一刀:「Anthropic 大規(guī)模竊取訓練數(shù)據(jù),還為此支付了數(shù)十億美元的和解金。這是事實?!?/p>


反駁者還有一個更尖銳的邏輯:Anthropic 當年從那些書里拿走的,不僅沒付過任何使用費,回頭還用于商業(yè)行為(Claude 和 Anthropic API 都是付費服務);而從商業(yè)角度來看,蒸餾 Claude 的公司至少付了錢……

當然,從法律層面來看,這兩件事的性質(zhì)完全不同。但不論怎樣,Anthropic 看起來還是很像個偽善的雙標者。

「后蒸餾時代」

最后再強調(diào)一遍:蒸餾有用,但沒有你們想象的那么有用。

DeepSeek 的 15 萬次,按任何合理標準來看都是可以忽略的數(shù)字。Moonshot 和 MiniMax 合計 1650 萬次,量級是另一回事——但能轉(zhuǎn)化成多少真實能力,取決于他們能不能解決「如何用好這些數(shù)據(jù)」的技術問題。

考慮到數(shù)據(jù)分布差異、模型架構差異,以及代理能力的獲得本身對于強化學習的重度依賴,蒸餾從來不是「拿來就用」那么簡單。

Lambert 還是給了 Anthropic 面子:「快速迭代加上高質(zhì)量數(shù)據(jù)可以走很遠,讓學生模型超越老師也并非不可能?!?/p>


但他也明確指出,真正的創(chuàng)新靠的是強化學習,不是蒸餾。從 DeepSeek、月暗、MiniMax 公開的論文來看,它們都用有相當完善的基礎設施和優(yōu)秀的人才,遠非只靠小聰明小伎倆企圖彎道超車的「小作坊」。

蒸餾能幫你更快入場,但真要打到頂級水平,從來沒有捷徑。

某種意義上,Anthropic 提出的「蒸餾」爭議,本身就是這個 AI 時代縮影。

整個行業(yè)打一開始就建立在曖昧不清的規(guī)則上:用人類寫的東西訓練,用別人的開源成果迭代,在法律沒有明確禁止的地方快速行動。

現(xiàn)在,規(guī)則開始慢慢收緊——先是版權,再是芯片,現(xiàn)在又是 API……誰在制定規(guī)則?誰受益于規(guī)則?誰一邊打著人類的旗號,卻濫用規(guī)則謀求私利?

這些問題的答案,都越來越清晰。

附上參考地址:


https://www.interconnects.ai/p/how-much-does-distillation-really

歡迎加入 APPSO AI 社群,一起暢聊 AI 產(chǎn)品,獲取,解鎖更多 AI 新知

我們正在招募伙伴

簡歷投遞郵箱hr@ifanr.com

?? 郵件標題「姓名+崗位名稱」(請隨簡歷附上項目/作品或相關鏈接)


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
贏了日本隊,依舊不樂觀!中國男籃出線前景探究,下場仍是生死戰(zhàn)

贏了日本隊,依舊不樂觀!中國男籃出線前景探究,下場仍是生死戰(zhàn)

萌蘭聊個球
2026-02-26 22:05:53
日本動物園請人扮演大熊貓吸引游客

日本動物園請人扮演大熊貓吸引游客

界面新聞
2026-02-26 18:20:03
褚時健到2002年才明白,原來當年是得罪了惹不起的那幾位

褚時健到2002年才明白,原來當年是得罪了惹不起的那幾位

阿柒的訊
2026-02-24 15:07:34
何賽飛和一幫發(fā)小在老家聚會,吃正宗浙江菜,家里裝修很有藝術氣息

何賽飛和一幫發(fā)小在老家聚會,吃正宗浙江菜,家里裝修很有藝術氣息

老吳教育課堂
2026-02-26 18:33:31
瓜子被點名!醫(yī)生提醒:高血脂還常吃瓜子,很快或迎來3個后果

瓜子被點名!醫(yī)生提醒:高血脂還常吃瓜子,很快或迎來3個后果

荊醫(yī)生科普
2026-02-25 18:25:49
機器人租賃熱度升溫,日租價降至千元

機器人租賃熱度升溫,日租價降至千元

澎湃新聞
2026-02-26 20:36:27
2-7落后,對手叫暫停!然后王楚欽13-11逆轉(zhuǎn),那幾分鐘發(fā)生了什么

2-7落后,對手叫暫停!然后王楚欽13-11逆轉(zhuǎn),那幾分鐘發(fā)生了什么

曹老師評球
2026-02-26 22:13:46
俄副總理親口證實,中俄正在談判,普京該明白:親兄弟也得明算賬

俄副總理親口證實,中俄正在談判,普京該明白:親兄弟也得明算賬

阿離家居
2026-02-26 20:35:58
煮湯圓,有人用開水,用冷水!廚師長:都不對,教您做法,不粘鍋

煮湯圓,有人用開水,用冷水!廚師長:都不對,教您做法,不粘鍋

阿龍美食記
2026-02-23 17:09:09
1950 年胡蘭成獲北京當官邀請,行至上海醒悟,連夜偷渡日本保命

1950 年胡蘭成獲北京當官邀請,行至上海醒悟,連夜偷渡日本保命

磊子講史
2026-02-05 09:14:45
機場安檢時,筆記本電腦為啥要單獨拿出來掃描?不是多此一舉嗎?

機場安檢時,筆記本電腦為啥要單獨拿出來掃描?不是多此一舉嗎?

向航說
2026-02-23 00:50:03
中國音樂家在美國紐約路邊換胎時被撞身亡,年僅35歲

中國音樂家在美國紐約路邊換胎時被撞身亡,年僅35歲

上觀新聞
2026-02-26 12:59:04
女子5.5克黃金戒指換新只剩下2克,丈夫:損失三四千元,實在氣不過,店方:5G黃金是一口價的金飾工藝,不是克數(shù)

女子5.5克黃金戒指換新只剩下2克,丈夫:損失三四千元,實在氣不過,店方:5G黃金是一口價的金飾工藝,不是克數(shù)

大風新聞
2026-02-26 15:52:03
原來如此!美軍為何一直不動手打擊伊朗的原因找到了!

原來如此!美軍為何一直不動手打擊伊朗的原因找到了!

九思堂開峻
2026-02-26 07:29:50
狐貍尾巴露出來了?默茨訪華說漏嘴,中方當面回復,措辭極不尋常

狐貍尾巴露出來了?默茨訪華說漏嘴,中方當面回復,措辭極不尋常

古史青云啊
2026-02-26 23:03:59
美軍航母“炸”了,史詩級災難,把臉都丟光了

美軍航母“炸”了,史詩級災難,把臉都丟光了

毛豆論道
2026-02-26 19:32:00
香菇再次被關注!醫(yī)生發(fā)現(xiàn):癌癥患者吃香菇,不用多久或有5改善

香菇再次被關注!醫(yī)生發(fā)現(xiàn):癌癥患者吃香菇,不用多久或有5改善

讀懂世界歷史
2026-02-12 21:48:53
打人夫妻老底被扒光!村民曝更多惡心事,遠不止群毆女孩這么簡單

打人夫妻老底被扒光!村民曝更多惡心事,遠不止群毆女孩這么簡單

奇思妙想草葉君
2026-02-26 16:57:25
這就是赤裸裸的現(xiàn)實!國家電網(wǎng)的員工估計很難熬到退休了!

這就是赤裸裸的現(xiàn)實!國家電網(wǎng)的員工估計很難熬到退休了!

小虎新車推薦員
2026-02-24 20:16:44
正負值+153!三分命中率48.6%啊,掘金這桿高炮臺終于支棱起來了

正負值+153!三分命中率48.6%啊,掘金這桿高炮臺終于支棱起來了

球童無忌
2026-02-26 22:05:39
2026-02-27 00:15:00
AppSo incentive-icons
AppSo
讓智能手機更好用的秘密
6134文章數(shù) 26788關注度
往期回顧 全部

科技要聞

單季營收681億凈利429億!英偉達再次炸裂

頭條要聞

男子因銀行系統(tǒng)錯誤"欠款1000萬億":工廠可能會被拍賣

頭條要聞

男子因銀行系統(tǒng)錯誤"欠款1000萬億":工廠可能會被拍賣

體育要聞

從排球少女到冰壺女神,她在米蘭冬奧練出6塊腹肌

娛樂要聞

向華強公開表態(tài) 財產(chǎn)留給兒媳婦郭碧婷

財經(jīng)要聞

中國AI調(diào)用量超美國 4款大模型霸榜前5

汽車要聞

40歲的吉利,不惑于內(nèi)外

態(tài)度原創(chuàng)

房產(chǎn)
數(shù)碼
健康
教育
時尚

房產(chǎn)要聞

2.2萬/m2起!三亞主城性價比標桿 海墾·桃花源實景現(xiàn)房春節(jié)被瘋搶

數(shù)碼要聞

庫克預告下周一蘋果新品發(fā)布!且不止一款產(chǎn)品

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

教育要聞

學習的真正對手,是精力分配失衡

今年春天最美搭配:西裝+半裙,怎么穿都好看!

無障礙瀏覽 進入關懷版