不知道有沒有小伙伴遇到過這樣的情況:有時候使用Pytorch訓(xùn)練完模型,在測試數(shù)據(jù)上面得到的結(jié)果并不盡如人意。到底是什么原因?qū)е聀ytorch訓(xùn)練結(jié)果不準(zhǔn)確的呢?閱讀這篇文章,你或許會找到答案。
當(dāng)我們遇到訓(xùn)練結(jié)果不準(zhǔn)確的情況的時候,可能需要檢查一下定義的Model類中有沒有 BN 或 Dropout 層,如果有任何一個存在
那么在測試之前需要加入一行代碼:
#model是實例化的模型對象
model = model.eval()
表示將模型轉(zhuǎn)變?yōu)閑valuation(測試)模式,這樣就可以排除BN和Dropout對測試的干擾。
因為BN和Dropout在訓(xùn)練和測試時是不同的:
對于BN,訓(xùn)練時通常采用mini-batch,所以每一批中的mean和std大致是相同的;而測試階段往往是單個圖像的輸入,不存在mini-batch的概念。所以將model改為eval模式后,BN的參數(shù)固定,并采用之前訓(xùn)練好的全局的mean和std;
對于Dropout,訓(xùn)練階段,隱含層神經(jīng)元先乘概率P,再進(jìn)行激活;而測試階段,神經(jīng)元先激活,每個隱含層神經(jīng)元的輸出再乘概率P。
如下圖所示:
補充:pytorch中model.eval之后是否還需要model.train的問題
答案是:需要的
正確的寫法是
for循環(huán)之后再開啟train,
循環(huán)之后的評估m(xù)odel.eval之后就會再次回到model.train。
小結(jié)
以上就是pytorch訓(xùn)練結(jié)果不準(zhǔn)確的可能的解決方案了,希望能給大家一個參考,也希望大家多多支持W3Cschool。