2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩63頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、深度學習算法正得到越來越廣泛的關注和應用,然而隨著輸入訓練數(shù)據(jù)集和神經(jīng)網(wǎng)絡模型的增大,單節(jié)點進行深度學習訓練存在內存限制以及訓練耗時等問題,分布式深度學習應運而生。其中,參數(shù)服務器多基于分布式方法設計,普遍采用并行隨機梯度下降算法進行梯度更新訓練。
  分布式參數(shù)服務器的設計能有效提升深度學習的訓練速度,但面對大規(guī)模神經(jīng)網(wǎng)絡參數(shù)時,工作節(jié)點和參數(shù)服務器節(jié)點進行參數(shù)交換的時間過長,會消耗較多并行訓練的時間,是整個分布式訓練中的瓶頸。

2、現(xiàn)有的解決方式是依靠手動優(yōu)化參數(shù)交換的時間間隔,以降低參數(shù)交換頻率和開銷。手動設置的各工作節(jié)點交換時間間隔固定且相等,來自不同工作節(jié)點的參數(shù)交換請求會在近乎相同的時間點到達參數(shù)服務器節(jié)點而呈現(xiàn)請求突發(fā)現(xiàn)象;而參數(shù)服務器節(jié)點資源有限,不同的參數(shù)交換請求必須通過排隊依次獲得其資源以得到處理,瓶頸依然存在。
  針對上述問題,設計了一種通過自動設置最佳參數(shù)交換時間間隔來消除分布式深度學習參數(shù)交換瓶頸同時保證訓練準確率的方法和系統(tǒng);并在內

3、存容量足夠容納整個參數(shù)模型的前提下,對并行隨機梯度下降算法進行了優(yōu)化。其工作機制為:通過監(jiān)控參數(shù)服務器節(jié)點的資源使用情況,動態(tài)為各個工作節(jié)點選取一定范圍內不同的參數(shù)交換時間間隔以避免請求突發(fā)現(xiàn)象,并在達到時間間隔上限時進行強制參數(shù)交換,依此來消除參數(shù)交換瓶頸的同時保證準確率。
  實驗表明,分布式深度學習中參數(shù)交換優(yōu)化機制能夠在保證深度學習訓練準確率的前提下,使參數(shù)交換速率提升8倍,有效克服了并行訓練中參數(shù)交換瓶頸以及參數(shù)交換請求

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論