基于非負(fù)矩陣分解的農(nóng)作物葉部病害識(shí)別
發(fā)布時(shí)間:2020-12-19 00:14
農(nóng)業(yè)是中國經(jīng)濟(jì)的基礎(chǔ)支撐產(chǎn)業(yè),在人類的生活中具有非常重要的地位,單位面積內(nèi)農(nóng)作物的生產(chǎn)產(chǎn)量高低與人們的生活息息相關(guān)。隨著農(nóng)業(yè)經(jīng)濟(jì)的快速發(fā)展,傳統(tǒng)的病害分類和識(shí)別方法已經(jīng)無法有效解決大量的病害問題,智能化的病害分類和識(shí)別方法顯得越來越重要。隨著互聯(lián)網(wǎng)時(shí)代的快速發(fā)展,人們可以輕易的采集到病害圖片。然而在采集過程中,由于天氣原因、傳感器損壞或人為因素,致使采集的病害數(shù)據(jù)集出現(xiàn)高斯噪聲、椒鹽噪聲或塊遮擋等異常情況。本文基于非負(fù)矩陣分解和卷積神經(jīng)網(wǎng)絡(luò)理論來研究含有噪聲的病害數(shù)據(jù)和病害等級(jí)分類問題。非負(fù)矩陣分解主要用于提取農(nóng)作物葉部病害數(shù)據(jù)的特征,卷積神經(jīng)網(wǎng)絡(luò)對(duì)提取后的特征進(jìn)行處理和識(shí)別。具體研究內(nèi)容包括:(1)在曼哈頓矩陣分解框架基礎(chǔ)上,本文提出了權(quán)重曼哈頓非負(fù)矩陣分解方法來(WNMF)減弱噪聲對(duì)特征空間的影響。WNMF既能修復(fù)被噪聲污染的病害數(shù)據(jù),又能用修復(fù)的數(shù)據(jù)來學(xué)習(xí)更加魯棒的特征表示。(2)在稀疏編碼框架基礎(chǔ)上,本文提出了基于稀疏非負(fù)矩陣分解的特征提取方法,使得特征空間具有稀疏性和魯棒性。(3)結(jié)合非負(fù)矩陣分解理論以及卷積神經(jīng)網(wǎng)絡(luò)相關(guān)理論,設(shè)計(jì)出建立在卷積神經(jīng)網(wǎng)絡(luò)算法上的病害識(shí)別模型,該算...
【文章來源】:重慶三峽學(xué)院重慶市
【文章頁數(shù)】:47 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
卷積核的計(jì)算過程
關(guān)鍵技術(shù)概述9一半,輸出的長度變成了2*2。圖2.2池化層操作示意圖2.2.3激活函數(shù)(ActivationFunction)除CNN的輸入層外,其他每層都能夠使用一種激活函數(shù)接受到輸入與權(quán)重的乘積之和。在某些線性運(yùn)用表達(dá)能力不足時(shí),CNN會(huì)通過非線性映射的手段和方式來激活函數(shù),用來篩選從網(wǎng)絡(luò)中獲得的特征。常用的激活函數(shù)大致能夠區(qū)分為(飽和非線性函數(shù)(Tanh,Sigmoid)和不飽和非線性函數(shù)(ReLU),在現(xiàn)實(shí)生活運(yùn)用中,Sigmoid和Tanh函數(shù)一般會(huì)在全連接層被用到,而ReLU函數(shù)則被卷積層采用。下面用列表形式介紹其定義及圖像,如表2.1所示。表2.1常用激活函數(shù)(ActivationFunction)函數(shù)函數(shù)表達(dá)式函數(shù)曲線圖飽和非線性函數(shù)Sigmoid函數(shù)xexf11)(Tanh函數(shù)xxeexf221-1)(不飽和非ReLu函數(shù)0,00,)(xxxxf
關(guān)鍵技術(shù)概述11]log}{1[1)(111)()()(mikjkjxxiiTjiTjeejymJ式(2-7)函數(shù)中的.1是真假性函數(shù),是指如果其中的內(nèi)容為真,取值為1,反之則取值為0。2.2.5隨機(jī)失活技術(shù)(Dropout)為了解決隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的持續(xù)增多、網(wǎng)絡(luò)模型規(guī)模不斷的增大而造成的臨訓(xùn)練時(shí)間過長和可能過擬合的現(xiàn)象,那么就需要通過Dropout層。在實(shí)踐過程中Dropout層發(fā)揮了很好的作用,這是因?yàn)樵诰W(wǎng)絡(luò)的計(jì)算過程中會(huì)對(duì)神經(jīng)元的一些特性進(jìn)行阻止,來有效的避免網(wǎng)絡(luò)過度擬合,同時(shí)也增加了網(wǎng)絡(luò)的適應(yīng)能力。Dropout所具有的核心思想[19]是在訓(xùn)練過程中隨機(jī)遺棄掉網(wǎng)絡(luò)中某些隱藏層的神經(jīng)元模型,因?yàn)樵摴?jié)點(diǎn)可能會(huì)在下一次網(wǎng)絡(luò)訓(xùn)練過程中被重新更新使用。下面介紹Dropout技術(shù)的過程,如圖2.3所示:圖2.3隨機(jī)失活(Dropout)示意圖詳細(xì)的過程如下:在隨意“遺棄”某些神經(jīng)元之后會(huì)繼續(xù)用BP算法來對(duì)“遺棄”之后的神經(jīng)元網(wǎng)絡(luò)的權(quán)重參數(shù)進(jìn)行更新。在對(duì)下一批樣本進(jìn)行輸入時(shí),再隨機(jī)在原始神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上“遺棄”一部分的神經(jīng)元,和之前“遺棄”是不一樣的,后面的訓(xùn)練過程中仍利用BP的反向傳播算法更新權(quán)重。操作時(shí),那些被“遺棄”的神經(jīng)元還是隨機(jī)的,通過對(duì)神經(jīng)元隨機(jī)的“遺棄”它們之間的相互依賴關(guān)系就能降低,就能獲取到有用的圖像特征。我們?cè)谟?xùn)練差異樣本的情形下運(yùn)用到Dropout,本質(zhì)上就是因?yàn)橛?xùn)練神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是具有差異性的。而Dropout能在規(guī)定的時(shí)間內(nèi)將許多個(gè)結(jié)構(gòu)不同的網(wǎng)絡(luò)訓(xùn)練出來,是因?yàn)闄?quán)值一致的原因。我們?cè)谶\(yùn)用Dropout進(jìn)行處理后,發(fā)
本文編號(hào):2924872
【文章來源】:重慶三峽學(xué)院重慶市
【文章頁數(shù)】:47 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
卷積核的計(jì)算過程
關(guān)鍵技術(shù)概述9一半,輸出的長度變成了2*2。圖2.2池化層操作示意圖2.2.3激活函數(shù)(ActivationFunction)除CNN的輸入層外,其他每層都能夠使用一種激活函數(shù)接受到輸入與權(quán)重的乘積之和。在某些線性運(yùn)用表達(dá)能力不足時(shí),CNN會(huì)通過非線性映射的手段和方式來激活函數(shù),用來篩選從網(wǎng)絡(luò)中獲得的特征。常用的激活函數(shù)大致能夠區(qū)分為(飽和非線性函數(shù)(Tanh,Sigmoid)和不飽和非線性函數(shù)(ReLU),在現(xiàn)實(shí)生活運(yùn)用中,Sigmoid和Tanh函數(shù)一般會(huì)在全連接層被用到,而ReLU函數(shù)則被卷積層采用。下面用列表形式介紹其定義及圖像,如表2.1所示。表2.1常用激活函數(shù)(ActivationFunction)函數(shù)函數(shù)表達(dá)式函數(shù)曲線圖飽和非線性函數(shù)Sigmoid函數(shù)xexf11)(Tanh函數(shù)xxeexf221-1)(不飽和非ReLu函數(shù)0,00,)(xxxxf
關(guān)鍵技術(shù)概述11]log}{1[1)(111)()()(mikjkjxxiiTjiTjeejymJ式(2-7)函數(shù)中的.1是真假性函數(shù),是指如果其中的內(nèi)容為真,取值為1,反之則取值為0。2.2.5隨機(jī)失活技術(shù)(Dropout)為了解決隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的持續(xù)增多、網(wǎng)絡(luò)模型規(guī)模不斷的增大而造成的臨訓(xùn)練時(shí)間過長和可能過擬合的現(xiàn)象,那么就需要通過Dropout層。在實(shí)踐過程中Dropout層發(fā)揮了很好的作用,這是因?yàn)樵诰W(wǎng)絡(luò)的計(jì)算過程中會(huì)對(duì)神經(jīng)元的一些特性進(jìn)行阻止,來有效的避免網(wǎng)絡(luò)過度擬合,同時(shí)也增加了網(wǎng)絡(luò)的適應(yīng)能力。Dropout所具有的核心思想[19]是在訓(xùn)練過程中隨機(jī)遺棄掉網(wǎng)絡(luò)中某些隱藏層的神經(jīng)元模型,因?yàn)樵摴?jié)點(diǎn)可能會(huì)在下一次網(wǎng)絡(luò)訓(xùn)練過程中被重新更新使用。下面介紹Dropout技術(shù)的過程,如圖2.3所示:圖2.3隨機(jī)失活(Dropout)示意圖詳細(xì)的過程如下:在隨意“遺棄”某些神經(jīng)元之后會(huì)繼續(xù)用BP算法來對(duì)“遺棄”之后的神經(jīng)元網(wǎng)絡(luò)的權(quán)重參數(shù)進(jìn)行更新。在對(duì)下一批樣本進(jìn)行輸入時(shí),再隨機(jī)在原始神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上“遺棄”一部分的神經(jīng)元,和之前“遺棄”是不一樣的,后面的訓(xùn)練過程中仍利用BP的反向傳播算法更新權(quán)重。操作時(shí),那些被“遺棄”的神經(jīng)元還是隨機(jī)的,通過對(duì)神經(jīng)元隨機(jī)的“遺棄”它們之間的相互依賴關(guān)系就能降低,就能獲取到有用的圖像特征。我們?cè)谟?xùn)練差異樣本的情形下運(yùn)用到Dropout,本質(zhì)上就是因?yàn)橛?xùn)練神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是具有差異性的。而Dropout能在規(guī)定的時(shí)間內(nèi)將許多個(gè)結(jié)構(gòu)不同的網(wǎng)絡(luò)訓(xùn)練出來,是因?yàn)闄?quán)值一致的原因。我們?cè)谶\(yùn)用Dropout進(jìn)行處理后,發(fā)
本文編號(hào):2924872
本文鏈接:http://www.wukwdryxk.cn/shoufeilunwen/zaizhiyanjiusheng/2924872.html
最近更新
教材專著