-
1
-
2
-
3
-
4
-
5
-
6
-
7
-
8
-
9
Communication optimization strategies for distributed deep neural network training: A survey
Veröffentlicht in arXiv.org
VolltextArtikel -
10
-
11
CD-SGD: Distributed Stochastic Gradient Descent with Compression and Delay Compensation
Veröffentlicht in arXiv.org
VolltextArtikel -
12
SSD-SSD: Communication sparsification for distributed deep learning training
Veröffentlicht in arXiv.org
VolltextArtikel -
13
OD-SGD: One-step Delay Stochastic Gradient Descent for Distributed Training
Veröffentlicht in arXiv.org
VolltextArtikel -
14
-
15
-
16
-
17
-
18
-
19
-
20