a国产,中文字幕久久波多野结衣AV,欧美粗大猛烈老熟妇,女人av天堂

基于混合核極限學(xué)習(xí)機(jī)的標(biāo)記學(xué)習(xí)研究及應(yīng)用

發(fā)布時(shí)間:2020-06-21 11:30
【摘要】:隨著機(jī)器學(xué)習(xí)的發(fā)展目前有大量的機(jī)器學(xué)習(xí)算法被提出,人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,ANN)就是其中的一個(gè)重點(diǎn)研究方向。單隱藏層神經(jīng)網(wǎng)絡(luò)又是ANN中發(fā)展最為完備使用范圍最為廣泛的一類算法。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)算法例如BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)有著參數(shù)復(fù)雜,訓(xùn)練速度慢,對(duì)數(shù)據(jù)需求龐大的問題,而極限學(xué)習(xí)機(jī)(Extreme Learning Machine,ELM)則是對(duì)傳統(tǒng)單隱藏層神經(jīng)網(wǎng)絡(luò)算法的擴(kuò)展創(chuàng)新,它極大的避免了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)算法的缺陷,所以將極限學(xué)習(xí)機(jī)引入到使用傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)算法進(jìn)行處理的問題中可以提升算法性能。當(dāng)前隨著網(wǎng)絡(luò)使用率的提升,現(xiàn)在有大量互聯(lián)網(wǎng)用戶每天都在產(chǎn)生海量的數(shù)據(jù),同時(shí)這些數(shù)據(jù)非常的零散,數(shù)據(jù)的信息密度和使用價(jià)值也都很低,所以這樣就需要一種合適的方法來(lái)處理這些數(shù)據(jù),標(biāo)記學(xué)習(xí)就是一種性能表現(xiàn)良好的數(shù)據(jù)分類處理辦法,它通過建立已知特征到標(biāo)記的映射來(lái)處理未知數(shù)據(jù)的標(biāo)記識(shí)別問題,目前已經(jīng)有了大量的研究成果。核函數(shù)作為一種高效的維度空間映射方法在人工神經(jīng)網(wǎng)絡(luò)算法中有重要的應(yīng)用,而基于核的極限學(xué)習(xí)機(jī)也是提升改善極限學(xué)習(xí)機(jī)性能的一種有效方法。對(duì)此本文提出將混合核極限學(xué)習(xí)機(jī)應(yīng)用到多標(biāo)記問題和性別標(biāo)記識(shí)別問題中;诤藰O限學(xué)習(xí)機(jī)的多標(biāo)記學(xué)習(xí)算法能夠有效提高標(biāo)記分類性能,但是現(xiàn)有算法大都使用單一核函數(shù),未能有效解決多標(biāo)記中數(shù)據(jù)差異性問題。本文將混合核引入到極限學(xué)習(xí)機(jī)算法中,提出基于混合核極限學(xué)習(xí)機(jī)的多標(biāo)記學(xué)習(xí)。首先在極限學(xué)習(xí)機(jī)中通過混合核函數(shù)將特征映射到高維空間,然后對(duì)原標(biāo)記空間建立混合核極限學(xué)習(xí)機(jī)模型求得輸出權(quán)值,最后通過模型計(jì)算預(yù)測(cè)未知樣本的標(biāo)記。通過與現(xiàn)有算法在相同數(shù)據(jù)集下進(jìn)行的對(duì)比,結(jié)果表明本文算法在五個(gè)評(píng)價(jià)指標(biāo)下性能優(yōu)于多個(gè)對(duì)比算法,統(tǒng)計(jì)假設(shè)檢驗(yàn)進(jìn)一步說(shuō)明本文算法的有效性,有利于多標(biāo)記學(xué)習(xí)算法性能提升。目前大部分性別標(biāo)記識(shí)別問題都是基于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)算法,本文將在多標(biāo)記識(shí)別中有較好表現(xiàn)的混合核極限學(xué)習(xí)機(jī)應(yīng)用到性別標(biāo)記問題中。通過LBP(Local Binary Pattern,LBP)和LPQ(Local Phase Quantization,LPQ)來(lái)提取人臉圖像特征,并進(jìn)行性別標(biāo)記之后用這些特征和標(biāo)記來(lái)訓(xùn)練混合核極限學(xué)習(xí)機(jī)得到預(yù)測(cè)模型。然后將未知性別標(biāo)記的人臉圖像同樣提取特征后通過該預(yù)測(cè)模型來(lái)判斷性別。通過對(duì)比其他算法在同一個(gè)公開數(shù)據(jù)集上的識(shí)別率,證明了混合核極限學(xué)習(xí)機(jī)在性別標(biāo)記問題中的有效性。
【學(xué)位授予單位】:安慶師范大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:C81
【圖文】:

多標(biāo)記,圖像


移動(dòng)端網(wǎng)民單日使用時(shí)長(zhǎng)已達(dá)到 186 分鐘,超過 PC 端 2 倍,約為看 4 集電時(shí)間。目前中國(guó)的互聯(lián)網(wǎng)用戶數(shù)量已經(jīng)位居全世界第一,大量的用戶時(shí)時(shí)刻刻都海量的數(shù)據(jù),但是這些隨機(jī)產(chǎn)生的數(shù)據(jù)信息密度低,經(jīng)濟(jì)價(jià)值不高,要想有效合用這些數(shù)據(jù)就必須要有合適的大數(shù)據(jù)分析工具。目前基于神經(jīng)網(wǎng)絡(luò)技術(shù)的各種數(shù)分類方法層出不窮,其中標(biāo)記學(xué)習(xí)的研究和應(yīng)用在處理低信息密度數(shù)據(jù)方面有著效果,所以構(gòu)造高性能的標(biāo)記學(xué)習(xí)算法就變得尤為重要。標(biāo)記學(xué)習(xí)即是用數(shù)據(jù)特征構(gòu)造數(shù)據(jù)的某些標(biāo)志的映射關(guān)系。它又分為單標(biāo)記和多單標(biāo)記即全部特征只對(duì)應(yīng)一個(gè)標(biāo)記,而多標(biāo)記既是指一些特征對(duì)應(yīng)一個(gè)標(biāo)記另征對(duì)應(yīng)另一個(gè)標(biāo)記,這樣一個(gè)樣本就被多個(gè)標(biāo)記所描述。由于現(xiàn)實(shí)世界的多義性上多標(biāo)記學(xué)習(xí)更加符合現(xiàn)實(shí)情況。但不論是哪種標(biāo)記學(xué)習(xí)框架都有一定的實(shí)用價(jià)一個(gè)樣本來(lái)說(shuō)并不是每個(gè)標(biāo)記都是重要的,如圖 1.1 所示:該圖是一張典型的海從標(biāo)記的角度來(lái)看該圖的標(biāo)記有:男性人物、女性人物、船、樹木、沙灘、水面、云彩、建筑等。如果對(duì)該圖進(jìn)行場(chǎng)景分析這些標(biāo)記都有重要作用,但是如果是的某個(gè)人進(jìn)行分析則男女性別標(biāo)記就變得重要其他的可能會(huì)造成干擾。所以進(jìn)行析就有了重要的意義。

示意圖,神經(jīng)網(wǎng)絡(luò),示意圖,隱藏層


第二章 基本理論知識(shí)機(jī)習(xí)的發(fā)展,眾多研究者提出了各種基于人類神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)[21],它們都是通過模仿人類神經(jīng)元信息傳網(wǎng)絡(luò)學(xué)習(xí)框架均由輸入層、隱藏層、輸出層三種元素組該層中的多個(gè)節(jié)點(diǎn)完成,這些節(jié)點(diǎn)又被稱為神經(jīng)元,對(duì)重系數(shù)來(lái)進(jìn)行處理上一個(gè)節(jié)點(diǎn)的數(shù)據(jù)最后得到輸出。目隱藏層神經(jīng)網(wǎng)絡(luò)算法[22],它最大的優(yōu)點(diǎn)是可以高效的映射到高維來(lái)處理。神經(jīng)網(wǎng)絡(luò)算法示意圖如圖 2.1 所示

【參考文獻(xiàn)】

相關(guān)期刊論文 前7條

1 李揚(yáng);郭海礁;;基于LBP和SVM決策樹的人臉表情識(shí)別[J];現(xiàn)代計(jì)算機(jī)(專業(yè)版);2014年09期

2 劉帥師;田彥濤;萬(wàn)川;;基于Gabor多方向特征融合與分塊直方圖的人臉表情識(shí)別方法[J];自動(dòng)化學(xué)報(bào);2011年12期

3 趙高長(zhǎng);張磊;武風(fēng)波;;改進(jìn)的中值濾波算法在圖像去噪中的應(yīng)用[J];應(yīng)用光學(xué);2011年04期

4 龔婷;胡同森;田賢忠;;基于類內(nèi)分塊PCA方法的人臉表情識(shí)別[J];機(jī)電工程;2009年07期

5 孫寧;冀貞海;鄒采榮;趙力;;基于局部二元模式算子的人臉性別分類方法[J];華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版);2007年S1期

6 羅振波;丁曉青;方馳;王爭(zhēng)兒;;一種對(duì)光照魯棒的人臉圖像預(yù)處理算法[J];電視技術(shù);2006年09期

7 朱大奇;人工神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀及其展望[J];江南大學(xué)學(xué)報(bào);2004年01期

相關(guān)碩士學(xué)位論文 前4條

1 馬田;基于混合核函數(shù)SVM與遺傳參數(shù)優(yōu)化的人臉識(shí)別研究[D];江蘇科技大學(xué);2018年

2 張靜;基于面部圖像分塊處理和PCA算法的表情識(shí)別研究[D];西安電子科技大學(xué);2013年

3 李金坡;基于五官及其組合的人臉性別識(shí)別研究[D];河北工業(yè)大學(xué);2011年

4 楊忠;基于人臉圖像的性別識(shí)別技術(shù)研究[D];江蘇大學(xué);2009年



本文編號(hào):2724003

資料下載
論文發(fā)表

本文鏈接:http://www.wukwdryxk.cn/guanlilunwen/tongjijuecelunwen/2724003.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶165dd***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com
91麻豆精品国产91久久久久久| 亚洲精品乱码久久久久久蜜桃91 | www.日韩精品| 亚洲成人精品在线| 免费A级毛片出奶水| 久久精品人人做人人爽电影蜜月| 717理论片午影院无码| av激情网| ysl蜜桃色成人九色四| 最新永久无码av网址亚洲| 亚洲国产精品久久久久秋霞1| 女人高潮内射99精品| 免费视频片在线观看| 鲁甸县| 神马久久久久久| 天天久久| 亚洲成a人片在线观看中文无码| 亚洲色丰满少妇高潮18p| 国产免费av一区二区三区| 亚洲色欲色欲大片WWW无码| 久久婷婷五月综合色欧美蜜芽| 免费超碰| 久久久久噜噜噜亚洲熟女综合| 国产福利一区二区| 婷婷五月深深久久精品| 亚洲欧洲国产综合AⅤ无码| 四虎国产精品永久在线动漫| 狠狠色噜噜狠狠狠狠色综合久AV| 亚洲AV综合色区在线观看| 精品国产一区二区AV片| 日日狠狠久久偷偷色综合| 你懂的在线观看| 久久一区视频| 精品国产乱码久久| 狠狠爱av| 色99| 爱爱激情| aⅴ在线| 夜久久| 久久大香蕉视频| 蜜臀一区二区三区精品免费视频|