基于LSTM神經(jīng)網(wǎng)絡(luò)的肉牛動(dòng)態(tài)稱重算法研究
【文章頁數(shù)】:6 頁
【部分圖文】:
圖2 LSTM單元結(jié)構(gòu)
長(zhǎng)短期記憶網(wǎng)絡(luò)(longshorttermmemorynetwork,LSTM)是遞歸神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN)的進(jìn)一步發(fā)展。RNN網(wǎng)絡(luò)只考慮最近時(shí)刻的狀態(tài),通過雙曲正切函數(shù)(tanh)控制過去的輸出與當(dāng)前的輸入。LSTM網(wǎng)絡(luò)在其....
圖3 LSTM網(wǎng)絡(luò)結(jié)構(gòu)
LSTM神經(jīng)網(wǎng)絡(luò)模型的輸入為地磅四腳壓力傳感器連續(xù)采集量,目標(biāo)值為牛只靜態(tài)重量值,計(jì)算程序外部輸入量為空稱重量,采用Sigmoid激活函數(shù)。選取80頭肉牛數(shù)據(jù)作為訓(xùn)練集,采用Sigmoid激活函數(shù),牛只重量范圍為130.0~440.5kg,將此范圍的數(shù)據(jù)轉(zhuǎn)化在[01]區(qū)間,保....
圖4 LSTM模型訓(xùn)練迭代次數(shù)與目標(biāo)值的均方誤差
模型訓(xùn)練迭代次數(shù)與目標(biāo)值的MSE見圖4。由圖4可知:模型訓(xùn)練前100次迭代過程中,LSTM網(wǎng)絡(luò)輸出數(shù)據(jù)與真值均方誤差快速下降,隨后迭代過程中MSE下降變緩,230次迭代后誤差保持不變。隨著訓(xùn)練次數(shù)的增加模型預(yù)測(cè)準(zhǔn)確率逐漸提升,輸出值與真值的擬合程度趨向最佳。
圖7 動(dòng)態(tài)稱重程序流程
綜合上述模型構(gòu)建及處理過程,將數(shù)據(jù)輸入到訓(xùn)練好的模型中,去除牛只交替時(shí)的采樣點(diǎn),并對(duì)牛只擬合值取平均值,獲取牛只重量預(yù)測(cè)值。動(dòng)態(tài)稱重的程序流程見圖7。2.2.4LSTM模型驗(yàn)證及誤差分析
本文編號(hào):4054900
本文鏈接:http://www.wukwdryxk.cn/yixuelunwen/dongwuyixue/4054900.html