国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

表格建模也能Scaling?樹模型的時(shí)代要改變了

0
分享至



一張 H100 相當(dāng)于多少個(gè) Hadoop 實(shí)例?

讓我們先從一個(gè)有趣的問題開始:站在 2026 年的當(dāng)下,一張 H100 GPU 的單卡算力(FP16)大約相當(dāng)于多少個(gè) Hadoop 實(shí)例?

答案是:約 200 個(gè)( 單卡 H100 vs 一臺(tái) 96 核 CPU 實(shí)例)。

這個(gè)數(shù)字背后隱藏著一個(gè)值得深思的現(xiàn)象:過去幾年中,AI 的快速發(fā)展極大推動(dòng)了算力的指數(shù)級(jí)增長。然而在結(jié)構(gòu)化數(shù)據(jù)建模這一領(lǐng)域,行業(yè)主流方法仍然是以樹模型為核心的垂直場(chǎng)景化解決方案。

這就形成了一個(gè)有趣的 "反差":一邊是各大科技公司和大量初創(chuàng)企業(yè)正通過不斷升級(jí)的大語言模型推動(dòng) AI 生產(chǎn)力的躍遷,另一邊是在金融、醫(yī)療、電商、物流、工業(yè)制造等高價(jià)值行業(yè)中,真正承載智能化任務(wù)的,仍主要是以 XGBoost、隨機(jī)森林為代表的樹模型。這種反差讓我們不得不開始思考:當(dāng)算力革命發(fā)生時(shí),結(jié)構(gòu)化數(shù)據(jù)建模的 "平衡點(diǎn)" 是否也該被重新定義?

"苦澀的教訓(xùn)" 與結(jié)構(gòu)化數(shù)據(jù)的困境

從更宏觀的角度看,大模型研發(fā)所遵循的核心思想,可以追溯到 Richard Sutton 提出的 “苦澀的教訓(xùn)”(The Bitter Lesson):在 AI 的長期發(fā)展中,那些能夠隨著計(jì)算規(guī)模持續(xù)擴(kuò)展的通用學(xué)習(xí)方法,往往最終會(huì)超越依賴人類直覺與領(lǐng)域知識(shí)精心設(shè)計(jì)的系統(tǒng)。

大語言模型的成功正是這一規(guī)律的典型體現(xiàn) —— 通過統(tǒng)一架構(gòu)與大規(guī)模數(shù)據(jù)訓(xùn)練,LLM 在 NLP 領(lǐng)域?qū)崿F(xiàn)了跨任務(wù)、跨場(chǎng)景的能力遷移。然而,當(dāng)企業(yè)在實(shí)際業(yè)務(wù)中解決監(jiān)督學(xué)習(xí)問題時(shí),情況卻呈現(xiàn)出明顯反差。即使在嘗試引入深度學(xué)習(xí)時(shí),也往往需要依賴復(fù)雜的數(shù)據(jù)流水線、特定架構(gòu)設(shè)計(jì)以及大量領(lǐng)域知識(shí)的引入。這相當(dāng)于用 "手工作坊" 的方式,去應(yīng)對(duì) "工業(yè)化生產(chǎn)" 的需求。于是出現(xiàn)了一個(gè)頗為有趣的現(xiàn)象:一方面,各大科技公司和大量初創(chuàng)企業(yè)正通過不斷擴(kuò)大的大語言模型推動(dòng) AI 生產(chǎn)力的躍遷;另一方面,在金融、醫(yī)療、電商、物流、工業(yè)制造、農(nóng)業(yè)等高價(jià)值行業(yè)的重要社會(huì)經(jīng)濟(jì)領(lǐng)域中,真正承載智能化場(chǎng)景任務(wù)的,仍主要是以 XGBoost、隨機(jī)森林為代表的基于樹的表格分類模型或垂域深度學(xué)習(xí)分類模型,這進(jìn)一步激發(fā)了我們探索結(jié)構(gòu)化數(shù)據(jù)模型 scaling 上限的興趣。

回顧歷史,XGBoost 在 2014 年被廣泛視為機(jī)器學(xué)習(xí)領(lǐng)域中算力、算法與數(shù)據(jù)三要素之間的一個(gè) “平衡點(diǎn)”。但十二年后的今天,隨著 GPU 算力的快速迭代并帶來數(shù)量級(jí)提升,這一平衡點(diǎn)是否已經(jīng)發(fā)生改變?結(jié)構(gòu)化數(shù)據(jù)建模是否也可能像 NLP 和 CV 一樣,通過新的計(jì)算范式實(shí)現(xiàn)突破?回到開篇的問題:當(dāng)單張 H100 與一臺(tái) 96 核 CPU 服務(wù)器之間已經(jīng)存在約 200 倍的 FP16 算力差距時(shí),一個(gè)自然的想法是 —— 是否可以將 GPU 的大規(guī)模并行算力真正引入結(jié)構(gòu)化數(shù)據(jù)建模,并通過預(yù)訓(xùn)練范式重新平衡算力、數(shù)據(jù)與算法這三大核心要素。

千億級(jí)樣本預(yù)訓(xùn)練實(shí)踐

本文將重點(diǎn)介紹浙大 X 螞蟻 AIforData 團(tuán)隊(duì)的探索:基于螞蟻集團(tuán)海量的異構(gòu)結(jié)構(gòu)化數(shù)據(jù)以及豐富的下游業(yè)務(wù)場(chǎng)景,實(shí)現(xiàn)了千卡 GPU 集群下百億級(jí)樣本規(guī)模的結(jié)構(gòu)化數(shù)據(jù)預(yù)訓(xùn)練,并系統(tǒng)評(píng)估了預(yù)訓(xùn)練模型在下游任務(wù)中的表現(xiàn),實(shí)驗(yàn)結(jié)果表明:

1. 在工業(yè)級(jí)表格數(shù)據(jù)集上,預(yù)訓(xùn)練模型的性能可以穩(wěn)定且顯著地超越傳統(tǒng)樹模型

2. 表格數(shù)據(jù)預(yù)訓(xùn)練模型呈現(xiàn)出明顯的 scaling law

3. 行為序列預(yù)訓(xùn)練模型同樣表現(xiàn)出良好的 scaling law

工作 1: 表格數(shù)據(jù)預(yù)訓(xùn)練與 Scaling Law

https://arxiv.org/abs/2602.22777

KMLP(Kolmogorov-Arnold Network with gated MLP)是面向互聯(lián)網(wǎng)超大規(guī)模表格數(shù)據(jù)的混合深度學(xué)習(xí)架構(gòu)(中稿 The Web Conference 2026)。面對(duì)工業(yè)場(chǎng)景中數(shù)十億樣本、數(shù)千異構(gòu)特征的建模挑戰(zhàn),KMLP 創(chuàng)新性地將淺層 KAN 作為前端特征工程構(gòu)造器,結(jié)合 gMLP 主干網(wǎng)絡(luò)捕獲高階交互,實(shí)現(xiàn)了端到端的自動(dòng)化特征表示學(xué)習(xí)。



在包含 20 億樣本的真實(shí)信貸評(píng)分?jǐn)?shù)據(jù)集上,KMLP 展現(xiàn)出顯著的規(guī)模優(yōu)勢(shì):隨著數(shù)據(jù)量級(jí)提升,其相對(duì)于傳統(tǒng) GBDT 模型的性能優(yōu)勢(shì)持續(xù)擴(kuò)大。這一發(fā)現(xiàn)驗(yàn)證了 KMLP 作為可擴(kuò)展深度學(xué)習(xí)范式的潛力,為大規(guī)模動(dòng)態(tài)互聯(lián)網(wǎng)表格數(shù)據(jù)建模提供了新路徑。



KMLP 的核心價(jià)值在于解決了傳統(tǒng)方法的雙重瓶頸:一方面克服了 GBDT 在超大規(guī)模數(shù)據(jù)集上分布式計(jì)算效率問題,另一方面通過可學(xué)習(xí)激活函數(shù)擺脫了對(duì)人工特征工程的依賴,實(shí)現(xiàn)了特征異構(gòu)性與交互建模的統(tǒng)一。其相對(duì)于傳統(tǒng) GBDT 模型的性能優(yōu)勢(shì)持續(xù)擴(kuò)大;解決了 GBDT 分布式計(jì)算效率問題和人工特征工程依賴。

工作 2: 行為序列預(yù)訓(xùn)練與 Scaling Law

https://arxiv.org/abs/2412.12468

用戶行為時(shí)序數(shù)據(jù),作為刻畫用戶的關(guān)鍵結(jié)構(gòu)化數(shù)據(jù)之一,對(duì)于用戶理解與建模起著重要作用。在用戶建模時(shí)如何利用以及如何利用好更多的用戶行為序列數(shù)據(jù),是一個(gè)重要的研究課題。

FOUND:時(shí)序數(shù)據(jù)的語義級(jí)應(yīng)用

FOUND(Transferable and Forecastable User Targeting Foundation Model)是 AIforData 團(tuán)隊(duì)發(fā)布在 The Web Conference 2025(WebConf 25)中的工作,面向互聯(lián)網(wǎng)平臺(tái)中多種來源的序列數(shù)據(jù)和結(jié)構(gòu)化數(shù)據(jù),構(gòu)建了工業(yè)級(jí)、具有預(yù)測(cè)性的用戶表征框架。

當(dāng)前許多用戶理解方法面臨兩大顯著挑戰(zhàn):(i) 跨領(lǐng)域和跨場(chǎng)景的可遷移性及泛化能力較弱 (ii) 在實(shí)際應(yīng)用中的預(yù)測(cè)能力不足。為了增強(qiáng)跨領(lǐng)域遷移能力,F(xiàn)OUND 框架整合了多場(chǎng)景用戶數(shù)據(jù),并在用戶建模時(shí)創(chuàng)新性地通過對(duì)比學(xué)習(xí)預(yù)訓(xùn)練將其與根據(jù)序列語義整理得到的文本進(jìn)行對(duì)齊。為了提高預(yù)測(cè)性,每個(gè)用戶的文本描述基于用戶未來的行為推導(dǎo)得出,而用戶表征則由歷史信息構(gòu)建而成,使用過去 - 未來語義對(duì)齊的方式構(gòu)造訓(xùn)練樣本對(duì)。

由該框架產(chǎn)出的用戶表征在真實(shí)場(chǎng)景 benchmark 和業(yè)務(wù)上均獲得了增益。同時(shí)引入自然語言監(jiān)督的方式也使得模型天然支持人群圈選這一用戶理解任務(wù),該預(yù)訓(xùn)練框架支持的圈人能力在下游取得了大量收益,支持超過 50 個(gè)業(yè)務(wù)場(chǎng)景。



序列數(shù)據(jù)的 Scaling Law

在有了上述預(yù)訓(xùn)練框架后,我們思考如何將綜合互聯(lián)網(wǎng)平臺(tái)中更多更長的用戶行為序列引入到模型中來。針對(duì)多種來源的序列數(shù)據(jù),各自設(shè)計(jì)編碼器會(huì)存在訓(xùn)練成本過高、表達(dá)空間不統(tǒng)一等缺陷,同時(shí)如何發(fā)揮更多輸入序列數(shù)據(jù)的最大性能也是一個(gè)問題,即需要探索輸入序列本身存在的 Scaling Law 以及如何突破可能存在的 Scaling 瓶頸。

在實(shí)驗(yàn)探索過程中我們發(fā)現(xiàn),輸入序列長度 / 用戶數(shù)目在數(shù)量級(jí)較少時(shí),性能隨著天數(shù) / 用戶數(shù)目(指數(shù))近似線性提升,Scaling 現(xiàn)象明顯;但在輸入序列增長、用戶數(shù)目增加時(shí)增長緩慢,出現(xiàn) Scaling 瓶頸。為解決該問題,除了增加參數(shù)這種模型層面的 Scaling,提升輸入用戶數(shù)據(jù)的信息密度,即對(duì)用戶信息進(jìn)行壓縮,不失為一種節(jié)約成本且輕量的方案。在使用 RQ-VAE 方案進(jìn)行用戶序列數(shù)據(jù)壓縮后,我們觀測(cè)到出現(xiàn)數(shù)據(jù)增長瓶頸得到延緩,說明了壓縮帶來突破瓶頸的 Densing Law 現(xiàn)象。

核心結(jié)論:在輸入序列長度 / 用戶數(shù)目在數(shù)量較少時(shí)性能隨著天數(shù)指數(shù)的 Scaling 現(xiàn)象明顯,輸入序列長度和用戶數(shù)目增加至較大量級(jí)時(shí)出現(xiàn) Scaling 瓶頸,而壓縮數(shù)據(jù)可以通過提升信息密度帶來突破瓶頸的 Densing Law 現(xiàn)象。





基于以上原始和壓縮輸入的 Scaling Law,我們?cè)O(shè)計(jì)了基于統(tǒng)一用戶量化壓縮的用戶理解方案,將用戶的多源序列等數(shù)據(jù)使用設(shè)計(jì)的 MRQ-VAE 方案壓縮成語義 token ID 提升信息密度,并在此基礎(chǔ)之上 Scaling 得到了更佳性能的用戶模型。產(chǎn)出的通用用戶表征在 80% 以上真實(shí)場(chǎng)景 benchmark 中相比之前原始數(shù)據(jù)輸入版本均有提升,并在數(shù)字金融、支付安全、營銷推薦、廣告等業(yè)務(wù)中全面應(yīng)用。

總結(jié)與展望

回到開篇的問題:當(dāng)算力已經(jīng)發(fā)生數(shù)量級(jí)變化時(shí),結(jié)構(gòu)化數(shù)據(jù)建模的范式是否也該隨之改變?

螞蟻 x 浙大 AIforData 團(tuán)隊(duì)的探索給出了肯定的答案。Scaling Law 正在從 NLP、CV 延伸到結(jié)構(gòu)化數(shù)據(jù)領(lǐng)域—— 這或許意味著,那個(gè)依賴人工特征工程和場(chǎng)景化調(diào)參的時(shí)代,真的要過去了。

"當(dāng)算力天平已經(jīng)傾斜,平衡點(diǎn)也該重新定義。"

未來,隨著算力的持續(xù)增長和預(yù)訓(xùn)練范式的成熟,我們有理由相信:結(jié)構(gòu)化數(shù)據(jù)建模將迎來屬于自己的 "大模型時(shí)刻"。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
小寶與王某雷,誰探訪花的數(shù)量更多?

小寶與王某雷,誰探訪花的數(shù)量更多?

挪威森林
2026-01-31 12:15:26
一場(chǎng)1:0讓邵佳一看得倍感欣慰,沒看錯(cuò)人,國足喜得左路超級(jí)飛翼

一場(chǎng)1:0讓邵佳一看得倍感欣慰,沒看錯(cuò)人,國足喜得左路超級(jí)飛翼

零度眼看球
2026-04-19 06:58:13
哈里斯:美國人不想打伊朗,特朗普意圖“轉(zhuǎn)移焦點(diǎn)”

哈里斯:美國人不想打伊朗,特朗普意圖“轉(zhuǎn)移焦點(diǎn)”

界面新聞
2026-04-19 14:59:22
楚阿梅尼:我愿意承擔(dān)責(zé)任;上屆世界杯決賽那腳點(diǎn)球確實(shí)很糟

楚阿梅尼:我愿意承擔(dān)責(zé)任;上屆世界杯決賽那腳點(diǎn)球確實(shí)很糟

懂球帝
2026-04-19 07:27:03
美歐密謀大計(jì)劃!美國聯(lián)合27國,要拆中國稀土牌?中國一點(diǎn)都不慌

美歐密謀大計(jì)劃!美國聯(lián)合27國,要拆中國稀土牌?中國一點(diǎn)都不慌

奧字侃劇
2026-04-19 22:46:20
美方評(píng)估伊朗仍保有約七成戰(zhàn)前導(dǎo)彈庫存

美方評(píng)估伊朗仍保有約七成戰(zhàn)前導(dǎo)彈庫存

財(cái)聯(lián)社
2026-04-19 16:50:04
西班牙、巴西、墨西哥發(fā)表聯(lián)合聲明

西班牙、巴西、墨西哥發(fā)表聯(lián)合聲明

環(huán)球時(shí)報(bào)國際
2026-04-19 08:22:53
天王山之戰(zhàn)即將上演!英超冠軍獎(jiǎng)杯被帶到阿提哈德球場(chǎng)展示

天王山之戰(zhàn)即將上演!英超冠軍獎(jiǎng)杯被帶到阿提哈德球場(chǎng)展示

懂球帝
2026-04-19 22:36:59
36萬億美債還不起,特朗普決定“弄死”大債主,為此不惜自曝家丑

36萬億美債還不起,特朗普決定“弄死”大債主,為此不惜自曝家丑

杰絲聊古今
2026-04-19 20:21:05
香港一工地近百人追討欠薪,結(jié)果網(wǎng)友們卻樂了

香港一工地近百人追討欠薪,結(jié)果網(wǎng)友們卻樂了

映射生活的身影
2026-04-19 09:55:59
銅陵有色:2025年度凈利潤約24.15億元,同比下降14.02%

銅陵有色:2025年度凈利潤約24.15億元,同比下降14.02%

每日經(jīng)濟(jì)新聞
2026-04-19 16:33:05
福原愛生下第三胎!首度現(xiàn)身,剪去長發(fā)、形象煥然一新

福原愛生下第三胎!首度現(xiàn)身,剪去長發(fā)、形象煥然一新

東方不敗然多多
2026-04-19 17:37:07
田亮、葉一茜共同發(fā)聲,前后一分不差,森碟終于走到了這步

田亮、葉一茜共同發(fā)聲,前后一分不差,森碟終于走到了這步

史鹷的生活科普
2026-04-17 05:54:15
曼城vs阿森納前瞻:曼城三中衛(wèi)缺席 主場(chǎng)唯有強(qiáng)攻 阿森納死守保平

曼城vs阿森納前瞻:曼城三中衛(wèi)缺席 主場(chǎng)唯有強(qiáng)攻 阿森納死守保平

智道足球
2026-04-19 13:26:23
中國不能獨(dú)享核聚變技術(shù)?美國可以獨(dú)享芯片技術(shù),美國憑啥雙標(biāo)?

中國不能獨(dú)享核聚變技術(shù)?美國可以獨(dú)享芯片技術(shù),美國憑啥雙標(biāo)?

史智文道
2026-04-19 10:15:13
鹵菜店使用“四姐”二字被索賠50萬元,店主:大家都叫我四姐,為什么告我侵權(quán)

鹵菜店使用“四姐”二字被索賠50萬元,店主:大家都叫我四姐,為什么告我侵權(quán)

環(huán)球網(wǎng)資訊
2026-04-11 21:50:22
狂夸小米的福特CEO,喊話封殺中國車!骨子里是害怕

狂夸小米的福特CEO,喊話封殺中國車!骨子里是害怕

象視汽車
2026-04-19 07:00:07
上海連續(xù)5天雨!140年來最強(qiáng)厄爾尼諾,今年沖擊高溫極限?權(quán)威回應(yīng)

上海連續(xù)5天雨!140年來最強(qiáng)厄爾尼諾,今年沖擊高溫極限?權(quán)威回應(yīng)

新民晚報(bào)
2026-04-19 19:55:16
婆婆們哭了!很多家庭,已進(jìn)入婆婆給兒媳倒行孝的時(shí)代,引發(fā)共鳴

婆婆們哭了!很多家庭,已進(jìn)入婆婆給兒媳倒行孝的時(shí)代,引發(fā)共鳴

火山詩話
2026-04-19 06:57:49
風(fēng)塵女子要怎么分辨出來?行家人都能看出來

風(fēng)塵女子要怎么分辨出來?行家人都能看出來

霹靂炮
2026-04-03 21:31:48
2026-04-20 00:35:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12795文章數(shù) 142632關(guān)注度
往期回顧 全部

科技要聞

50分26秒破人類紀(jì)錄!300臺(tái)機(jī)器人狂飆半馬

頭條要聞

半年下沉22厘米 女子家中坐擁價(jià)值上億別墅卻沒法住人

頭條要聞

半年下沉22厘米 女子家中坐擁價(jià)值上億別墅卻沒法住人

體育要聞

湖人1比0火箭:老詹比烏度卡像教練

娛樂要聞

何潤東漲粉百萬!內(nèi)娛隔空掀桌第一人

財(cái)經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

29分鐘大定破萬 極氪8X為什么這么多人買?

態(tài)度原創(chuàng)

藝術(shù)
數(shù)碼
家居
親子
公開課

藝術(shù)要聞

拿下阿聯(lián)酋高鐵,中東成了中國基建的“第二主場(chǎng)”!

數(shù)碼要聞

亞馬遜明確:未來Fire TV Stick全換Vega OS

家居要聞

法式線條 時(shí)光靜淌

親子要聞

孩子總打噴嚏、起疹子,時(shí)過敏嗎?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版