国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

OpenAI開源99.9%權(quán)重為0的奇葩模型,我扒完了論文,發(fā)現(xiàn)他們想重做AI大腦

0
分享至


大數(shù)據(jù)文摘受權(quán)轉(zhuǎn)載自夕小瑤科技說

AI 的腦回路,終于也開始學(xué)會做減法了。

就在最近,OpenAI 悄悄開源了一個“奇葩”模型——僅 0.4B 參數(shù),但 99.9% 的權(quán)重是 0。


沒錯,你沒看錯。一個幾乎“空著”的大腦,反而更聰明、更透明了。

我說怎么有點眼熟,原來正好是前段時間刷到的一篇的 OpenAI 論文"Weight-sparse transformers have interpretable circuits"《權(quán)重稀疏的 Transformer 具有可解釋性特征》的開源實現(xiàn)。

他們發(fā)現(xiàn),讓神經(jīng)網(wǎng)絡(luò)“不全連”,反而能讓它更聰明、更可解釋。

有人甚至直言:這種極致稀疏、功能解耦的思路,可能會讓當(dāng)下熱門的 MoE(混合專家模型)走上末路。

過去幾年,AI 的能力一路狂飆,從寫作、編程到科研樣樣精通,但問題也越來越明顯——它雖強,卻太神秘。我們能看到結(jié)果,卻看不懂過程。

尤其是當(dāng) AI 已經(jīng)開始參與科學(xué)研究、教育決策、甚至醫(yī)療診斷時,這種說不清自己在想什么的智能,顯然讓人不太踏實。

于是,AI 科學(xué)家們開始思考:

我們能不能真正看懂神經(jīng)網(wǎng)絡(luò)是怎么思考的?

能不能設(shè)計出一種從結(jié)構(gòu)上就清晰、可解釋的 AI?

這就是 OpenAI 這篇論文要講的事。

他們想從根子上解決問題——從一開始就訓(xùn)練一個“整潔”的大腦。


論文標題:
Weight-sparse transformers have interpretable circuits

論文鏈接:
https://cdn.openai.com/pdf/41df8f28-d4ef-43e9-aed2-823f9393e470/circuit-sparsity-paper.pdf

傳統(tǒng)Dense Networks,剪不斷,理還亂

要理解 OpenAI 這套新方法有多“逆天”,我們得先看看當(dāng)下神經(jīng)網(wǎng)絡(luò)的真實模樣——一句話形容:亂到讓人頭皮發(fā)麻。


傳統(tǒng)神經(jīng)網(wǎng)絡(luò),也叫Dense Networks(密集網(wǎng)絡(luò)),它們的連線方式很樸素也很暴力:

每一層的每個神經(jīng)元,都要和下一層的所有神經(jīng)元連一條線。

想象一下一個房間,里面站著一百個人,每個人都要和其他所有人各牽一根線……沒幾秒,這房間就變成“貓抓了五十次的毛線球”。


隨著模型變大,這種混亂會呈指數(shù)級爆炸。

在這種亂麻結(jié)構(gòu)里,單個神經(jīng)元往往會執(zhí)行多種不同的功能:

貓的圖片它管、法語句子它也管,甚至還會跑去參與推理任務(wù)......

這種神經(jīng)元“多線程兼職”現(xiàn)象叫Superposition(功能疊加)。


它的問題是:

你一旦想問——“這個神經(jīng)元到底負責(zé)什么?”

它就像一個離職交接不清楚的老員工一樣:

業(yè)務(wù)太多,講不清楚。。。


可解釋性研究過去幾年都在努力想辦法:

從外面觀察損失曲線、激活模式、注意力可視化……

但本質(zhì)上,這就像試圖通過拉扯毛線球外側(cè)幾根線,來猜里面的結(jié)構(gòu)。

離真正“看懂大腦”還是差了十萬八千里。

問題卡在這兒:我們一直在給一團本來就纏成死結(jié)的“毛線球”做體檢——量了血壓,拍了片,做了可視化報告,但毛線依然是一團毛線。

與其在事后想盡辦法解釋這種先天就混亂的結(jié)構(gòu),一個更激進的問題開始浮現(xiàn)出來:能不能從一開始,就別把它織成這樣?

別解毛線了,干脆重織一個干凈的網(wǎng)吧

當(dāng)大家還在試圖給這團毛線球做 CT、照 X 光、打標簽的時候,OpenAI 換了個腦洞:

我們能不能,不從解毛線開始,而是從一開始就織一張整潔的?

也就是說——與其想辦法解釋一個本來就亂七八糟的網(wǎng)絡(luò),不如讓它一出生就規(guī)規(guī)矩矩:別亂連,別多連,別到處伸手。

這便是權(quán)重稀疏”(Weight-sparse)模型的核心思想。

新研究中,在訓(xùn)練語言模型時,研究人員使用了一種與 GPT-2 相似的架構(gòu),但增加了一個關(guān)鍵的約束:強制模型中絕大多數(shù)的權(quán)重為零。

什么意思?

  • 原來 100 條線,現(xiàn)在只允許用 5 條

  • 神經(jīng)元不準“八面玲瓏”,只能干好自己的事

由于每個神經(jīng)元只能從少數(shù)幾個上游通道讀取信息,或向下游少數(shù)幾個通道寫入信息,模型就被“勸退”了,不再將概念表征分散到多個殘差通道中,也不會使用超出嚴格需要的神經(jīng)元來表示單個概念。

這種方法就像是要求一位工程師在布線時,必須走線清晰,每個接口功能單一,不要把所有電線都纏在一起。

不過,把線剪掉、結(jié)構(gòu)變干凈,只是第一步。

要回答“它是不是真的可解釋”,就得進一步追問:在這樣一張極簡的線路板上,具體是哪幾條線、哪幾個元件,在共同完成一項明確的功能?

為了衡量稀疏模型在多大程度上解開了其計算過程,研究者引入了“電路”(Circuits)的概念。

這里的“電路”指的是模型中負責(zé)執(zhí)行某個特定行為的、最小化的那一部分網(wǎng)絡(luò)結(jié)構(gòu)。研究人員手動策劃了一套簡單的算法任務(wù),對于每項任務(wù),他們都對模型進行“修剪”(Pruning),直到找到能夠完成該任務(wù)的最小“電路”,然后檢查這個電路有多簡單。


為使這一概念更直觀,論文給出了模型處理 Python 代碼任務(wù)的一個案例,任務(wù)很簡單:

在 Python 中,字符串開頭是什么引號,結(jié)尾也必須用同樣的引號。

比如:

  • ‘hello → 末尾必須是'

  • "hi→ 末尾必須是 "

在傳統(tǒng)的密集模型中,這可能涉及到成百上千個神經(jīng)元的復(fù)雜互動,最后誰貢獻了啥你根本解釋不清。


但在 OpenAI 訓(xùn)練的可解釋模型中,研究者發(fā)現(xiàn)了一個清晰解耦的“電路”,整個流程分為四步,講得清清楚楚:

① 編碼

模型在不同殘差通道里,分別記錄:

  • “出現(xiàn)過單引號”

  • “出現(xiàn)過雙引號”

② 分類處理

第 0 層的 MLP 做兩件事:

  • 判斷“是否存在引號”

  • 判斷出現(xiàn)的是 ' 還是 "

③ 跳回去找開引號

第 10 層注意力一出手:

  • 直接忽略所有中間的 hello、hi,跳回最近出現(xiàn)的引號位置

  • 把那里的“引號類型”信息復(fù)制過來

④ 輸出匹配引號

最后一步:模型根據(jù)復(fù)制回來的信息,輸出 ' 或 " 。

這個被找到的引號匹配電路非常簡潔:僅涉及 5 條殘差通道、第 0 層 MLP 的 2 個神經(jīng)元,以及第 10 層注意力機制中的 1 個查詢-鍵通道和 1 個值通道。

就這么點。。。

而且研究人員做了個非常硬核的驗證:

  • 只保留這些連接,模型依然能完美完成引號補全任務(wù)

  • 刪除任何一個關(guān)鍵連接(即使其他幾千個參數(shù)還在),模型立刻失敗

這次是真的看明白了。沒有任何旁門左道,稀疏模型里的任務(wù)完全靠正經(jīng)邏輯完成??!


但咱先別急,就算是在這些相對小的稀疏模型里,仍然有部分計算路線無法完全解釋。放在巨大模型里面,怎么辦呢?


OpenAI 認為未來有兩條路:

一是給現(xiàn)有“大黑箱”做手術(shù)(Dense → Sparse Circuits)。

怎么辦?

  • 找到它負責(zé)這個任務(wù)的激活區(qū)域

  • 把和這項任務(wù)無關(guān)的渠道“剪掉”

  • 只保留必要的最小子結(jié)構(gòu)

  • 得到一個可以單獨運行、也可以完全解釋的小模型

這就是所謂的 Circuit Extraction(電路提?。?。

二是進化出“天生可解釋”的大模型(Train Sparse from the Start)。

就像這篇論文做的那樣:

  • 把絕大多數(shù)權(quán)重設(shè)為 0

  • 限制連接

  • 限制信息擴散

  • 讓概念天然拆分

  • 電路天然局部化

從訓(xùn)練之初,就給模型施加稀疏度約束,逼它長成線條清晰的極簡大腦。

記得太多也是一種負擔(dān)

在前面的研究里,OpenAI 試圖從結(jié)構(gòu)層面讓模型的大腦變得“干凈”——靠稀疏連接、靠可解釋電路,讓思考路徑本身更清晰、更可靠。

但大腦的運行不僅取決于“線怎么連”,還取決于“記什么、不記什么”。

當(dāng)下的大型模型和智能助手似乎無所不知、過目不忘。然而,這表面上的優(yōu)點,卻可能讓 AI 的大腦變成一間雜亂無章的倉庫:什么都往里塞,久而久之反而影響了服務(wù)質(zhì)量和安全。


就像一個人如果對所有經(jīng)歷過的事都記得清清楚楚,他的大腦可能被痛苦和噪音填滿,難以專注當(dāng)下。

這個時候,就需要來一場認知上的“斷舍離”。


首先,從隱私和倫理角度看,一個永遠記得你所有對話的助手并不可愛。想象一下,你正在寫演講稿,它突然冒一句“要不要講你那次很痛苦的經(jīng)歷?那感覺想必相當(dāng)糟糕。

其次,從技術(shù)性能上講,恰當(dāng)?shù)倪z忘有助于模型避免“過載”。這樣做一方面消除了模型記住大量無用甚至錯誤信息對后續(xù)回答的干擾,另一方面也防止它對舊細節(jié)過度執(zhí)著。畢竟,對 AI 而言,無差別地記住所有細節(jié)反而可能導(dǎo)致“信息噪音”掩蓋真正有用的知識。

懶得其所,忘得有道

從稀疏專家模型到機器遺忘術(shù),我們看到 AI 領(lǐng)域一個有趣的轉(zhuǎn)變:讓 AI“少做點、少記點”,反而讓它變得更聰明了。

稀疏網(wǎng)絡(luò)教會 AI 精打細算地分配“大腦線路”——該連的連,不該連的斷;

機器遺忘術(shù)則教會它在記憶空間里“輕裝前行”——該留的留,不該留的散。

一個發(fā)生在結(jié)構(gòu)層,一個發(fā)生在記憶層,方向不同,卻殊途同歸:摒棄冗余,聚焦關(guān)鍵。

當(dāng) AI 既不會傻傻地把所有電路都連在一起浪費算力,也不會傻傻地把所有往事都銘記于心無法釋懷——也許,我們距離真正聰明又善解人意的機器伙伴就更近了一步。

GPU 訓(xùn)練特惠!

H100/H200 GPU算力按秒計費,平均節(jié)省開支30%以上!

掃碼了解詳情?

點「贊」的人都變好看了哦!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
我33歲到沙特務(wù)工,當(dāng)?shù)厝撕荛熅b,男女界限很嚴,光棍一大片

我33歲到沙特務(wù)工,當(dāng)?shù)厝撕荛熅b,男女界限很嚴,光棍一大片

千秋文化
2026-04-22 20:25:24
老外剛造出巴掌帽,義烏當(dāng)天量產(chǎn)十萬單,國內(nèi)外售價相差整整10倍

老外剛造出巴掌帽,義烏當(dāng)天量產(chǎn)十萬單,國內(nèi)外售價相差整整10倍

趣味萌寵的日常
2026-04-23 18:31:49
患難見情誼,普京被逼賣黃金?中方發(fā)話:俄賣多少,中方就收多少

患難見情誼,普京被逼賣黃金?中方發(fā)話:俄賣多少,中方就收多少

嘴角上翹
2026-04-23 18:08:12
美防長放出狠話,若真敢開戰(zhàn),將會比抗美援朝付出的傷亡會更大

美防長放出狠話,若真敢開戰(zhàn),將會比抗美援朝付出的傷亡會更大

別吵吵
2026-04-23 09:11:53
老兵更新動態(tài),保安被辭退處境堪憂,老兵一番話讓保安無地自容

老兵更新動態(tài),保安被辭退處境堪憂,老兵一番話讓保安無地自容

離離言幾許
2026-04-23 07:41:27
受賄數(shù)額特別巨大 中央紀委國家監(jiān)委駐證監(jiān)會紀檢監(jiān)察組原組長王會民被提起公訴

受賄數(shù)額特別巨大 中央紀委國家監(jiān)委駐證監(jiān)會紀檢監(jiān)察組原組長王會民被提起公訴

新京報
2026-04-23 10:20:16
吃相越來越難看,終于引起公憤了!

吃相越來越難看,終于引起公憤了!

胖胖說他不胖
2026-04-23 09:00:33
劃清界限!高云翔憔悴發(fā)聲撇清張婉婷,不留情面,一句話暗含深意

劃清界限!高云翔憔悴發(fā)聲撇清張婉婷,不留情面,一句話暗含深意

阿握聊事
2026-04-24 00:23:37
破例接機!中方強勢降臨中東,伊朗導(dǎo)彈下餃子,美霸權(quán)迎來終局?

破例接機!中方強勢降臨中東,伊朗導(dǎo)彈下餃子,美霸權(quán)迎來終局?

飄逸的云朵
2026-04-24 02:22:38
突然,全線跳水!美伊談判,傳出大消息

突然,全線跳水!美伊談判,傳出大消息

新浪財經(jīng)
2026-04-23 22:32:47
破例接機!中方強勢降臨中東,伊朗導(dǎo)彈下餃子,美霸權(quán)迎來終局?

破例接機!中方強勢降臨中東,伊朗導(dǎo)彈下餃子,美霸權(quán)迎來終局?

未來展望
2026-04-23 18:24:29
涉破壞耕地、非法開采等,兩部門通報違法違規(guī)典型問題

涉破壞耕地、非法開采等,兩部門通報違法違規(guī)典型問題

界面新聞
2026-04-23 11:19:04
看完這7件事,我終于懂了:中國足球的離譜,早就超出了人類認知

看完這7件事,我終于懂了:中國足球的離譜,早就超出了人類認知

圣西羅的太陽
2026-04-23 13:24:10
阿瑙托維奇:因疫情在中國隔離至抑郁,最終選擇重返歐洲

阿瑙托維奇:因疫情在中國隔離至抑郁,最終選擇重返歐洲

懂球帝
2026-04-23 08:32:10
全世界都被騙了:亞馬遜產(chǎn)全球20%氧氣?人類幾乎一口都分不到!

全世界都被騙了:亞馬遜產(chǎn)全球20%氧氣?人類幾乎一口都分不到!

半解智士
2026-04-22 14:26:26
痛心!西華縣公安局民警范志勇因公犧牲

痛心!西華縣公安局民警范志勇因公犧牲

大象新聞
2026-04-23 20:21:11
2026 銀行嚴查升級!個人賬戶不管多少錢,都可能被盯上

2026 銀行嚴查升級!個人賬戶不管多少錢,都可能被盯上

次元君情感
2026-04-23 21:55:59
金融大老虎蔡鄂生的桃色往事

金融大老虎蔡鄂生的桃色往事

資本董事局
2026-04-23 20:46:15
山姆“爆雷”,3億中產(chǎn)炸了!

山姆“爆雷”,3億中產(chǎn)炸了!

新零售參考Pro
2026-04-23 16:31:50
醫(yī)生警告:洗碗這三個壞習(xí)慣正在致癌,第二個很多人每天都在做

醫(yī)生警告:洗碗這三個壞習(xí)慣正在致癌,第二個很多人每天都在做

新時代的兩性情感
2026-04-23 21:56:59
2026-04-24 05:55:00
大數(shù)據(jù)文摘 incentive-icons
大數(shù)據(jù)文摘
專注大數(shù)據(jù),每日有分享!
6852文章數(shù) 94541關(guān)注度
往期回顧 全部

科技要聞

馬斯克喊出"史上最大產(chǎn)品",但量產(chǎn)難預(yù)測

頭條要聞

以色列:只要美國同意 將刺殺伊朗最高領(lǐng)袖

頭條要聞

以色列:只要美國同意 將刺殺伊朗最高領(lǐng)袖

體育要聞

給文班剃頭的馬刺DJ,成為NBA最佳第六人

娛樂要聞

王大陸因涉黑討債被判 女友也一同獲刑

財經(jīng)要聞

普華永道賠償10億 恒大股東見到"回頭錢"

汽車要聞

預(yù)售30.29萬起 嵐圖泰山X8配896線激光雷達

態(tài)度原創(chuàng)

親子
藝術(shù)
教育
公開課
軍事航空

親子要聞

新華讀報|打乒乓球有助提高兒童注意力

藝術(shù)要聞

罕見曝光!毛澤東 36 幅經(jīng)典對聯(lián),每一幅都是絕品!

教育要聞

華師這堂課,有溫度有干貨!

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

人民海軍成立77周年 主力艦艇亮相上海

無障礙瀏覽 進入關(guān)懷版