面向神經(jīng)機器翻譯的數(shù)據(jù)縮減方法研究
【文章頁數(shù)】:72 頁
【學位級別】:碩士
【部分圖文】:
圖2-1基于注意力機制的神經(jīng)機器翻譯模型架構(gòu)圖??
ecurrent?Neural?Network,?RNN?)構(gòu)成的Seq2Seq模型、基于卷積神經(jīng)網(wǎng)絡??(Convolutional?Neural?Network,?CNN)構(gòu)建的?Seq2Seq?模型|2|丨以及完全基?j?自注意??力機制(Self-attention?Me....
圖2-3?VDPWI模型框架圖??(1)?Bi-LSTMs?N絡(Bidirectional?Long?Short-Temi?Memory?Networks)丨38-391:??LSTM是循環(huán)祌經(jīng)N絡的-種變休,吋以捕獲1T1?
?sit?cats^<0^^?Cats?sit?on?the?mat??rJ|k?|??、丫,’?2.?Pairwise?Word??z,—?\?Interaction?Modeling??simCube??t??On?the?mat?there?sit?cats?Cats?si....
圖3-ly不同規(guī)模的數(shù)據(jù)下的BLEU值變化??為/解決模型在大規(guī)模數(shù)據(jù)上訓練成本過高的問題和數(shù)據(jù)冗余問題,多種數(shù)據(jù)選??
神經(jīng)機器翻譯的數(shù)據(jù)縮減方法研宄?第--章基于句子向量的靜態(tài)數(shù)據(jù)選擇方法??第三章基于句子向量的靜態(tài)數(shù)據(jù)選擇方法??3.1引言??隨著越來越多的可獲取的雙語平行數(shù)據(jù),機器翻譯的質(zhì)量得到了很大的提升。但??是由于計算機的內(nèi)存、處理能力以及速度方面的限制,導致翻譯模型在大規(guī)模數(shù)據(jù)上??....
圖3-3句子向量的分布圖??22??
第二章基于句子向量的靜態(tài)數(shù)據(jù)選擇方法?面向神經(jīng)機器翻譯的數(shù)據(jù)縮減方法研究??語義相近的兩個句子在語義向量空間中更加接近彼此。??本文使用Le和Mikolov?(2014)?[28]提出的PV-DM模型來訓練句子向量,該模型??同時考慮了句子的語義和語法信息。圖3-3給出了?PV-....
本文編號:4053241
本文鏈接:http://www.wukwdryxk.cn/kejilunwen/shengwushengchang/4053241.html