python超參數(shù)優(yōu)化的具體方法_第1頁(yè)
python超參數(shù)優(yōu)化的具體方法_第2頁(yè)
python超參數(shù)優(yōu)化的具體方法_第3頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第python超參數(shù)優(yōu)化的具體方法1、手動(dòng)調(diào)參,但這種方法依賴于大量的經(jīng)驗(yàn),而且比較費(fèi)時(shí)。

許多情況下,工程師依靠試錯(cuò)法手工調(diào)整超參數(shù)進(jìn)行優(yōu)化,有經(jīng)驗(yàn)的工程師可以在很大程度上判斷如何設(shè)置超參數(shù),從而提高模型的準(zhǔn)確性。

2、網(wǎng)格化尋優(yōu),是最基本的超參數(shù)優(yōu)化方法。

利用這種技術(shù),我們只需要為所有超參數(shù)的可能性建立一個(gè)獨(dú)立的模型,評(píng)估每個(gè)模型的性能,選擇產(chǎn)生最佳結(jié)果的模型和超參數(shù)。

fromsklearn.datasetsimportload_iris

fromsklearn.svmimportSVC

iris=load_iris()

svc=SVR()

fromsklearn.model_selectionimportGridSearchCV

fromsklearn.svmimportSVR

grid=GridSearchCV(

estimator=SVR(kernel='rbf'),

param_grid={

'C':[0.1,1,100,1000],

'epsilon':[0.0001,0.0005,0.001,0.005,0.01,0.05,0.1,0.5,1,5,10],

'gamma':[0.0001,0.001,0.005,0.1,1,3,5]

cv=5,scoring='neg_mean_squared_error',verbose=0,n_jobs=-1)

3、隨機(jī)尋優(yōu),可以更準(zhǔn)確地確定某些重要超參數(shù)的最佳值。

并非所有的超參數(shù)都有同樣的重要性,有些超參數(shù)的作用更加明顯。

知識(shí)點(diǎn)擴(kuò)充:

貝葉斯優(yōu)化方法

簡(jiǎn)單地說,貝葉斯優(yōu)化通過基于過去對(duì)目標(biāo)的評(píng)估結(jié)果建立一個(gè)代理函數(shù)(概率模型)找到使得目標(biāo)函數(shù)最小的值。代理函數(shù)比目標(biāo)函數(shù)更易于優(yōu)化,因此下一個(gè)待評(píng)估的輸入值是通過對(duì)代理函數(shù)應(yīng)用某種標(biāo)準(zhǔn)(通常為預(yù)期提升)來選擇的。貝葉斯方法不同于隨機(jī)搜索或網(wǎng)格搜索,后兩者都使用了過去的評(píng)估結(jié)果來選擇接下來待評(píng)估的值。它們的思想是:通過根據(jù)過去表現(xiàn)良好的值選擇下一個(gè)輸入值來限制評(píng)價(jià)目標(biāo)函數(shù)的高昂開銷。

對(duì)于超參數(shù)優(yōu)化來說,其目標(biāo)函數(shù)為使用一組超參數(shù)的機(jī)器學(xué)習(xí)模型的驗(yàn)證誤差。它的目標(biāo)是找出在驗(yàn)證集上產(chǎn)生最小誤差的超參數(shù),并希望將這些結(jié)果泛化到測(cè)試集上去。對(duì)目標(biāo)函數(shù)評(píng)估的開銷是巨大的,因?yàn)樗枰?xùn)練帶有一組特定超參數(shù)的機(jī)器學(xué)習(xí)模型。理想情況下,我們希望找到這樣一方法,它既能探索搜索空間,又能限制耗時(shí)的超參數(shù)評(píng)估。貝葉斯超參數(shù)調(diào)優(yōu)使用一個(gè)不斷更新的概率模型,通過從過去的結(jié)果中進(jìn)行推理,使搜索過程「專注」于有可能達(dá)到最優(yōu)的超參數(shù)。

Python環(huán)境下有一些貝葉斯優(yōu)化程序庫(kù),它們目標(biāo)函數(shù)的代理算法有所區(qū)別。在本文中,我們將使用「Hyperopt」庫(kù),它使用樹形Parzen評(píng)估器(TPE,https://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf)作為搜索算法,其他的Python庫(kù)還包含「Spearmint」(高斯過程代理)和「SMAC」(隨即森林回歸)。目前在這個(gè)領(lǐng)域有大量有

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論