分布式深度學(xué)習(xí)系統(tǒng)網(wǎng)絡(luò)通信優(yōu)化技術(shù)
【文章頁數(shù)】:7 頁
【部分圖文】:
圖1 計算與通信相對均衡的分布式訓(xùn)練
除了數(shù)據(jù)并行,模型并行是另一種方法。該方法將神經(jīng)網(wǎng)絡(luò)模型分割到不同的計算節(jié)點上,每個計算節(jié)點僅負(fù)責(zé)計算模型的某一部分,只有輸入層所在的節(jié)點才負(fù)責(zé)讀取數(shù)據(jù)。當(dāng)模型太大而無法放到一臺機(jī)器中時,則需要使用模型并行。本文主要關(guān)注常見的數(shù)據(jù)并行技術(shù)。圖2通信開銷占比過大的分布式訓(xùn)練
圖2 通信開銷占比過大的分布式訓(xùn)練
圖1計算與通信相對均衡的分布式訓(xùn)練圖3數(shù)據(jù)并行與模型并行
圖4 通信優(yōu)化層次
梯度和模型參數(shù)中的每個元素都存儲在電氣和電子工程師協(xié)會標(biāo)準(zhǔn)(IEEE754)的單精度浮點變量中。交換大量的32位全精度變量經(jīng)常占用大量網(wǎng)絡(luò)帶寬。為了緩解這種通信瓶頸,研究人員嘗試使用低精度浮點數(shù)來表示訓(xùn)練過程中傳輸?shù)奶荻取D5傳統(tǒng)并行SGD與本地SGD的對比
圖5 傳統(tǒng)并行SGD與本地SGD的對比
圖4通信優(yōu)化層次梯度量化的一般性描述為:首先梯度在發(fā)送之前通過量化函數(shù)量化為低精度值,然后在模型訓(xùn)練期間,每個節(jié)點之間傳輸這些低精度值;接收節(jié)點通過反量化函數(shù)從量化值重構(gòu)原始梯度,再聚合這些重構(gòu)后的梯度向量并更新模型參數(shù)。根據(jù)所使用的量化函數(shù)的性質(zhì),量化操作可以分為確定性量化和....
本文編號:4034471
本文鏈接:http://www.wukwdryxk.cn/kejilunwen/wltx/4034471.html