国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

貝葉斯在線模型選擇

0
分享至

Bayesian Online Model Selection

貝葉斯在線模型選擇

https://arxiv.org/pdf/2602.17958


摘要

貝葉斯強盜(Bayesian bandits)中的在線模型選擇提出了一個根本性的探索挑戰(zhàn):當(dāng)環(huán)境實例是從先驗分布中采樣得到時,我們?nèi)绾卧O(shè)計一種自適應(yīng)策略,既能探索多個強盜學(xué)習(xí)器,又能在事后與其中最好的一個相競爭?我們通過引入一種用于隨機強盜在線模型選擇的新貝葉斯算法來解決這個問題。我們證明了貝葉斯遺憾(Bayesian regret)具有
的 Oracle 風(fēng)格保證,其中 M 是基學(xué)習(xí)器的數(shù)量,是最優(yōu)基學(xué)習(xí)器的遺憾系數(shù), T 是時間范圍。我們還在一系列隨機強盜設(shè)置中對我們的方法進行了實證驗證,展示了其與最佳基學(xué)習(xí)器具有競爭力的性能。此外,我們研究了在基學(xué)習(xí)器之間共享數(shù)據(jù)的效果及其在緩解先驗誤設(shè)(prior mis-specification)中的作用。

1 引言

隨機強盜問題(stochastic bandit problem)是交互式?jīng)Q策的一個基礎(chǔ)模型 [Lattimore and Szepesvári, 2020]。在每一輪交互中,學(xué)習(xí)器從幾個動作中選擇一個,每個動作都關(guān)聯(lián)著一個未知的獎勵分布,并觀察從該分布中抽取的隨機獎勵。學(xué)習(xí)器的性能通常用遺憾(regret)來衡量:即所選動作的累積獎勵與該環(huán)境中最佳可能策略的累積獎勵之間的差值。目標(biāo)是設(shè)計能夠?qū)崿F(xiàn)次線性遺憾(sublinear regret)的算法,確保隨著學(xué)習(xí)器與環(huán)境交互次數(shù)的增加,其平均遺憾趨于消失。這個簡單而強大的框架捕捉了從(部分)反饋中學(xué)習(xí)的本質(zhì),并且處于許多現(xiàn)實世界應(yīng)用的核心,例如推薦系統(tǒng)、機器人技術(shù)和金融 [Silva et al., 2022; Ni et al., 2023; Klarich et al., 2024]。

在其貝葉斯公式化中,隨機強盜問題假設(shè)未知獎勵分布上存在一個先驗分布,以捕捉關(guān)于環(huán)境的現(xiàn)有信念。這種視角催生了諸如 Thompson Sampling [Thompson, 1933; Russo et al., 2020] 等強大的算法,該算法通過從后驗分布中采樣并選擇對采樣實例最優(yōu)的動作來誘導(dǎo)探索 [Agrawal and Goyal, 2012]。當(dāng)可以通過易處理的后驗推斷(tractable posterior inference)來整合和更新先驗知識時(例如在存在共軛先驗的情況下),貝葉斯強盜特別具有吸引力。當(dāng)共軛性不可用且精確推斷難以處理時,人們通常訴諸近似方法:馬爾可夫鏈蒙特卡洛(MCMC)方法,其漸近地逼近真實后驗;或者確定性替代方案,如拉普拉斯近似(Laplace approximations)和變分推斷(variational inference),它們提供了易處理的代理后驗 [Shahriari et al., 2016; Mazumdar et al., 2020]。

在本文中,我們研究了最初在頻率學(xué)派(frequentist)設(shè)定中引入的在線模型選擇問題 [Agarwal et al., 2017; Pacchiano et al., 2020b; Marinov and Zimmert, 2021]。在該問題中,學(xué)習(xí)者被給定一組有限的 bandit 算法(“模型”),我們將其稱為基學(xué)習(xí)器(base learners)。每個基學(xué)習(xí)器可能都適合不同的環(huán)境實例,例如,一個基學(xué)習(xí)器可能針對稀疏線性結(jié)構(gòu)進行了調(diào)整,而另一個則針對低維廣義線性獎勵進行了優(yōu)化。我們在貝葉斯(Bayesian)設(shè)定下研究這個問題,在交互開始時,環(huán)境是從一個已知的先驗分布中采樣的,并且學(xué)習(xí)者隨時間與該固定實例進行交互。在每一輪中,學(xué)習(xí)者選擇一個基學(xué)習(xí)器,遵循其策略選擇一個動作,并觀察產(chǎn)生的獎勵。我們的目標(biāo)是設(shè)計一種貝葉斯模型選擇策略,該策略在貝葉斯遺憾(Bayesian regret)上具有預(yù)言機最優(yōu)(oracle-best)保證:即在對從先驗中抽取環(huán)境的期望下,學(xué)習(xí)者的遺憾與一個預(yù)言機(oracle)的遺憾具有競爭力;該預(yù)言機知曉實現(xiàn)的環(huán)境實例,并會針對該實例固定選擇單個最佳的基算法。

現(xiàn)有的貝葉斯遺憾最小化方法,例如 Thompson 采樣(TS)及其變體,在隨機 bandit 問題中表現(xiàn)出強大的實證性能并享有次線性遺憾保證 [Zhang, 2022]。然而,它們并非專為在線模型選擇量身定制。經(jīng)典 TS 是為決策集設(shè)計的,其中每個動作都有一個固定的獎勵分布;相比之下,在模型選擇中,學(xué)習(xí)者在基學(xué)習(xí)器之間進行選擇,每個基學(xué)習(xí)器本身就是一個 bandit 算法,其行為和性能隨著運行而演變。因此,識別實現(xiàn)環(huán)境下的最佳基學(xué)習(xí)器需要跨學(xué)習(xí)器的刻意元探索(meta-exploration),而不僅僅是單個學(xué)習(xí)者內(nèi)部的動作層面探索。此外,標(biāo)準(zhǔn) TS 通過后驗采樣進行探索,隨后針對采樣出的模型進行貪婪博弈(greedy play),并且沒有明確利用額外的結(jié)構(gòu)信號(例如,某些動作的信息價值),而這些信號對于快速區(qū)分競爭的學(xué)習(xí)者可能至關(guān)重要。

這種局限性在具有“信息鎖”(information locks)的環(huán)境中變得尤為明顯,在這些環(huán)境中,某些動作在先驗中的每個環(huán)境下都是一致次優(yōu)的,但對于哪些動作是最優(yōu)的卻具有高度的信息量 [Brukhim et al., 2025; Pacchiano et al., 2023]。在這種設(shè)定下,故意查詢信息豐富動作的專用策略可以顯著優(yōu)于標(biāo)準(zhǔn) TS。這些觀察結(jié)果激發(fā)了一種用于在線模型選擇的貝葉斯方法,該方法能夠結(jié)合互補的算法行為并自動適應(yīng)實現(xiàn)的環(huán)境實例。雖然先前的文獻已經(jīng)為頻率學(xué)派設(shè)定下的模型選擇開發(fā)了預(yù)言機風(fēng)格的保證 [Dann et al., 2024b; Cutkosky et al., 2021],但具有可比理論保證的貝葉斯對應(yīng)方法仍未被探索。為此,我們提出了一種用于一般隨機 bandit 問題的在線模型選擇的新貝葉斯算法。我們將我們的貢獻總結(jié)如下:


2 預(yù)備知識

貝葉斯序貫決策已經(jīng)在一系列設(shè)定中得到了廣泛研究,包括強化學(xué)習(xí)、上下文老虎機(contextual bandits)以及更一般的部分觀測環(huán)境 [Fu et al., 2022; Ghavamzadeh et al., 2015]。






3 問題設(shè)定 (Problem Setup)





4 方法論與算法

貝葉斯在線模型選擇算法利用后驗樣本在整個訓(xùn)練過程中估計基學(xué)習(xí)器的性能。在時刻 t ∈ [ T ] ,元學(xué)習(xí)器從后驗分布中采樣對應(yīng)于每個動作的平均獎勵,



貝葉斯在線模型選擇算法的一個關(guān)鍵性質(zhì)是,它在所有基學(xué)習(xí)器之間維護一個全局后驗分布,利用所有基學(xué)習(xí)器收集到的動作-獎勵對來更新該后驗分布。因此,盡管基學(xué)習(xí)器之間不進行直接通信,它們通過后驗分布共享信息,從而獲得了統(tǒng)計效率。貝葉斯在線模型選擇算法的偽代碼如算法 1 所示。

5 分析

在接下來的章節(jié)中,我們將提供算法 1 的理論分析。我們首先陳述我們的假設(shè),以及我們在分析中使用的一些關(guān)鍵引理。然后,我們提供預(yù)言機最優(yōu)保證(oracle-best guarantee)的證明概要,并指引讀者參閱附錄 A.1 以獲取完整證明。

5.1 假設(shè)

我們在分析中考慮以下假設(shè):


5.2 關(guān)鍵引理





6 與 Thompson 采樣的比較



附錄中的圖 5 顯示,我們的算法(簡稱為 B-MS),當(dāng)配備 K K 個隨時間推移具有不同固定臂選擇的基學(xué)習(xí)器時,其實現(xiàn)的貝葉斯遺憾與 Thompson 采樣高度重合。這提供了強有力的證據(jù),表明在這種 的特殊情況下,我們的貝葉斯遺憾界與 TS 的既定界限相吻合,因為最優(yōu)基學(xué)習(xí)器總是選擇最優(yōu)臂,從而導(dǎo)致零遺憾。

7 實驗

為了評估我們算法的性能,我們進行了實驗研究,將我們提出的元學(xué)習(xí)器與基學(xué)習(xí)器的單獨運行進行了比較。給定從先驗分布中采樣的環(huán)境,該框架允許基學(xué)習(xí)器是不同的老虎機(bandit)算法,或者是具有不同配置的相同算法。






7.2 結(jié)果

我們的元學(xué)習(xí)器在 UCB 和 LinTS 老虎機設(shè)定中都實現(xiàn)了與表現(xiàn)最佳的基學(xué)習(xí)器相當(dāng)?shù)男阅?。平均累積遺憾曲線與最優(yōu)基學(xué)習(xí)器緊密跟蹤,而最優(yōu)動作選擇率提供了令人信服的證據(jù):B-MS 算法在 UCB 設(shè)定(c = 1)中實現(xiàn)了與最佳基學(xué)習(xí)器幾乎相同的性能,并在 LinTS 設(shè)定(c = 0.16)中接近最佳表現(xiàn)者。

此外,我們的算法成功地避免了探索不足和過度探索。在圖 2 中,B-MS 的平均遺憾曲線呈現(xiàn)出次線性增長,這與在近乎貪婪的策略(c = 0.01, c = 0.1)中觀察到的近似線性遺憾累積形成了對比。同時,與那些過度探索的配置(c = 5, c = 10)相比,它保持了顯著更低的遺憾。圖 3 進一步證明,極端的參數(shù)選擇會導(dǎo)致次優(yōu)行為:c = 0 代表一種純粹的利用策略,會迅速累積高額遺憾,而像 c = 25 這樣的大值則會引發(fā)過度探索,同樣導(dǎo)致性能不佳。元學(xué)習(xí)器成功適應(yīng)了這些配置,其遺憾表現(xiàn)與最佳的 LinTS 變體相當(dāng)。



我們還研究了在基學(xué)習(xí)器之間共享數(shù)據(jù)對元學(xué)習(xí)器性能的影響。結(jié)果如圖 1 所示。我們可以看到,在所有圖表中存在一個共同趨勢:共享數(shù)據(jù)提高了元學(xué)習(xí)器的性能,并使算法更加高效。這與我們的理論預(yù)期一致,因為共享數(shù)據(jù)使得每個基學(xué)習(xí)器能夠觀察到更多樣本,從而在其學(xué)習(xí)曲線上更快地進步。

我們在圖 1 中進一步挑戰(zhàn)了我們關(guān)于設(shè)定正確的先驗(well-specified prior)的假設(shè) 5.1。我們考慮元學(xué)習(xí)器設(shè)定錯誤(mis-specified),但其中一個基學(xué)習(xí)器設(shè)定正確的情況(圖 1b)。有趣的是,我們觀察到,即使元學(xué)習(xí)器設(shè)定錯誤,池中存在一個設(shè)定正確的基學(xué)習(xí)器也有助于元學(xué)習(xí)器從設(shè)定錯誤中恢復(fù)。在沒有任何設(shè)定正確的基學(xué)習(xí)器的情況下(即圖 1d 的設(shè)定),設(shè)定錯誤的元學(xué)習(xí)器不會表現(xiàn)出具有競爭力的性能,這反映了關(guān)于設(shè)定正確的先驗這一假設(shè)的重要性。

在最后一個實驗中,我們將基學(xué)習(xí)器指定為 Thompson 采樣算法和信息鎖求解器(Information Lock Solver)算法,并應(yīng)用我們提出的元算法 1。如圖 4a 所示,元學(xué)習(xí)器成功地利用了這些基學(xué)習(xí)器的多樣化建模范式,實現(xiàn)了比樸素 Thompson 采樣基線更低的累積遺憾。重要的是,該框架并不局限于那些共享相同算法但僅通過超參數(shù)配置而有所不同的基學(xué)習(xí)器。


8 討論與未來工作

我們提出的算法適用于一個靈活的在線模型選擇框架,其中任何隨機老虎機(bandit)算法都可以作為基學(xué)習(xí)器。從理論角度來看,一個有趣的擴展是分析在線模型選擇的貝葉斯遺憾下界。正如 5.3 節(jié)所討論的,先前的工作 [Marinov and Zimmert, 2021] 已經(jīng)為頻率學(xué)派設(shè)定下的在線模型選擇建立了
的下界,但貝葉斯下界仍然是一個未解決的問題。

從應(yīng)用角度來看,該框架特別適用于在線超參數(shù)調(diào)優(yōu),在這種情況下,必須在有限的計算預(yù)算下自適應(yīng)地評估多種算法或參數(shù)配置。更廣泛地說,我們的方法論涵蓋了隨機老虎機之外的應(yīng)用,例如具有非線性獎勵結(jié)構(gòu)的在線學(xué)習(xí)場景,或具有結(jié)構(gòu)化先驗的強化學(xué)習(xí),其中不同的基學(xué)習(xí)器編碼了不同的模型假設(shè)。

繼擴散 Thompson 采樣(Diffusion Thompson Sampling)以及 [Hsieh et al., 2023; Aouali, 2024] 的發(fā)展之后,一個有趣的方向是在貝葉斯在線模型選擇中利用擴散先驗(diffusion priors)。這一擴展將使得更具表達力的先驗分布成為可能,從而能夠涵蓋更廣泛變化的模型選擇問題。

9 結(jié)論

在本文中,我們研究了貝葉斯隨機老虎機(Bayesian stochastic bandits)中的在線模型選擇問題,并引入了貝葉斯在線模型選擇(Bayesian Online Model Selection)算法。我們的選擇策略利用從后驗分布中抽取的樣本來為每個基學(xué)習(xí)器計算一個勢函數(shù)。該勢函數(shù)提供了對實現(xiàn)遺憾(realized regret)的一種隨機估計,并且隨著后驗采樣的進行而不斷改進。


我們在多臂老虎機(multi-armed)和線性老虎機(linear bandit)算法的模型選擇任務(wù)上評估了我們方法的實證性能。我們的算法能夠調(diào)整 UCB 和 LinTS 的超參數(shù),實現(xiàn)了與我們的理論分析相一致的實證性能。此外,實驗表明,在基學(xué)習(xí)器之間共享數(shù)據(jù)提高了算法的整體性能,這在元學(xué)習(xí)器具有誤設(shè)先驗(mis-specified prior)時尤為有益。

原文鏈接:https://arxiv.org/pdf/2602.17958

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
寧波銀行發(fā)布貴金屬業(yè)務(wù)市場風(fēng)險提示

寧波銀行發(fā)布貴金屬業(yè)務(wù)市場風(fēng)險提示

財經(jīng)網(wǎng)
2026-03-26 18:32:12
中美衛(wèi)星導(dǎo)航用戶數(shù)量懸殊:GPS用戶數(shù)超60億,中國北斗令人意外

中美衛(wèi)星導(dǎo)航用戶數(shù)量懸殊:GPS用戶數(shù)超60億,中國北斗令人意外

混沌錄
2026-03-18 23:54:31
告別聲剛落,大陸強音起蔡正元今日入獄,國臺辦這句狠話破防綠營

告別聲剛落,大陸強音起蔡正元今日入獄,國臺辦這句狠話破防綠營

阿離家居
2026-03-27 04:34:34
日媒在報道張雪峰的時候,用了一個詞,我覺得太恰當(dāng)了

日媒在報道張雪峰的時候,用了一個詞,我覺得太恰當(dāng)了

輝哥說動漫
2026-03-27 07:12:50
廣東男子掃墓時發(fā)現(xiàn)“黑色巨物”在動!湊近一看,瞬間頭皮發(fā)麻……

廣東男子掃墓時發(fā)現(xiàn)“黑色巨物”在動!湊近一看,瞬間頭皮發(fā)麻……

珠海消防
2026-03-25 20:08:08
46 歲張柏芝三亞生圖流出,肚子上的軟肉,打了整個內(nèi)娛的臉

46 歲張柏芝三亞生圖流出,肚子上的軟肉,打了整個內(nèi)娛的臉

橙星文娛
2026-03-26 13:40:27
為嫁給美國人,56歲南京大媽奔赴美國,2年后嫁給70歲美國老頭

為嫁給美國人,56歲南京大媽奔赴美國,2年后嫁給70歲美國老頭

情感藝術(shù)家
2026-03-08 22:07:38
拒絕回歸WCBA!李月汝再赴美國,官宣重磅決定,韓旭也要這么干了

拒絕回歸WCBA!李月汝再赴美國,官宣重磅決定,韓旭也要這么干了

萌蘭聊個球
2026-03-26 13:09:33
中國的隱忍,正在延緩第三次世界大戰(zhàn)!

中國的隱忍,正在延緩第三次世界大戰(zhàn)!

南權(quán)先生
2026-03-23 15:11:48
徐昕拼下兩雙卻輸球,是廣州最大悲哀?劉維偉賽后發(fā)言更扎心

徐昕拼下兩雙卻輸球,是廣州最大悲哀?劉維偉賽后發(fā)言更扎心

林子說事
2026-03-27 00:33:44
廈門一女子長期遭家暴離家不敢歸,丈夫向法院申請宣告其死亡,十多年后決心離婚才知道自己“死了”!

廈門一女子長期遭家暴離家不敢歸,丈夫向法院申請宣告其死亡,十多年后決心離婚才知道自己“死了”!

環(huán)球網(wǎng)資訊
2026-03-26 14:44:08
少一人也能贏!姆巴佩滿血歸來先拔頭籌,法國2-1力克巴西

少一人也能贏!姆巴佩滿血歸來先拔頭籌,法國2-1力克巴西

仰臥撐FTUer
2026-03-27 07:58:03
你們都是什么時候?qū)δ信麻_竅的?網(wǎng)友:果然還是攔不住有心人

你們都是什么時候?qū)δ信麻_竅的?網(wǎng)友:果然還是攔不住有心人

夜深愛雜談
2026-02-21 21:37:02
你見過天才嗎?網(wǎng)友:有些領(lǐng)域,努力在天賦面前,一文不值

你見過天才嗎?網(wǎng)友:有些領(lǐng)域,努力在天賦面前,一文不值

帶你感受人間冷暖
2026-03-20 00:47:24
蘇州市人民商場龍鳳珠寶品牌店涉嫌銷售“假大牌” 品牌總部回應(yīng)

蘇州市人民商場龍鳳珠寶品牌店涉嫌銷售“假大牌” 品牌總部回應(yīng)

生活視覺攝影
2026-03-26 13:33:29
新華社消息|伊朗官員:美以襲擊已造成伊朗至少1750人死亡

新華社消息|伊朗官員:美以襲擊已造成伊朗至少1750人死亡

新華社
2026-03-26 10:06:18
唯一不含草酸的蔬菜!比薺菜、韭菜還鮮嫩,鮮嫩營養(yǎng)正當(dāng)時,好吃

唯一不含草酸的蔬菜!比薺菜、韭菜還鮮嫩,鮮嫩營養(yǎng)正當(dāng)時,好吃

阿龍美食記
2026-03-24 09:50:48
中國肺癌發(fā)病率世界第一!提醒:罪魁禍?zhǔn)滓丫境觯?種食物要少吃

中國肺癌發(fā)病率世界第一!提醒:罪魁禍?zhǔn)滓丫境觯?種食物要少吃

健康之光
2026-03-23 20:10:05
美空軍雜志:美軍戰(zhàn)損2架F-35、9架F-15、6架F-16、7架加油機!

美空軍雜志:美軍戰(zhàn)損2架F-35、9架F-15、6架F-16、7架加油機!

勝研集
2026-03-25 00:02:51
國產(chǎn)筆記本CPU偷梁換柱翻車!官方終于回應(yīng):生產(chǎn)失誤、全額退款

國產(chǎn)筆記本CPU偷梁換柱翻車!官方終于回應(yīng):生產(chǎn)失誤、全額退款

快科技
2026-03-25 10:14:04
2026-03-27 08:55:00
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1305文章數(shù) 18關(guān)注度
往期回顧 全部

科技要聞

OpenAI果斷砍掉"成人模式",死磕生產(chǎn)力

頭條要聞

牛彈琴:一直贏的特朗普心里更慌了 又給自己續(xù)了10天

頭條要聞

牛彈琴:一直贏的特朗普心里更慌了 又給自己續(xù)了10天

體育要聞

申京努力了,然而杜蘭特啊

娛樂要聞

劉曉慶妹妹發(fā)聲!稱姐姐受身邊人挑撥

財經(jīng)要聞

很反常!油價向上,黃金向下

汽車要聞

一汽奧迪A6L e-tron開啟預(yù)售 CLTC最大續(xù)航815km

態(tài)度原創(chuàng)

健康
教育
親子
數(shù)碼
軍事航空

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

教育要聞

老師最大的管理能力,是處理情緒的能力!

親子要聞

在那聲嘆息里,產(chǎn)后媽媽終于找回了弄丟的自己

數(shù)碼要聞

Mac Pro退場后蘋果官網(wǎng)同步停售配套滾輪套件,曾售5249元

軍事要聞

擔(dān)心特朗普突然停戰(zhàn) 以總理下令48小時盡力摧毀伊設(shè)施

無障礙瀏覽 進入關(guān)懷版