-
1
-
2
-
3
-
4
-
5
-
6
Understanding the Role of the Projector in Knowledge Distillation
Veröffentlicht in arXiv.org
VolltextArtikel -
7
-
8
Reconstructing Pruned Filters using Cheap Spatial Transformations
Veröffentlicht in arXiv.org
VolltextArtikel -
9
-
10
-
11
-
12
-
13
Compression of descriptor models for mobile applications
Veröffentlicht in arXiv.org
VolltextArtikel -
14
(V_kD:\) Improving Knowledge Distillation using Orthogonal Projections
Veröffentlicht in arXiv.org
VolltextArtikel -
15
Cascaded channel pruning using hierarchical self-distillation
Veröffentlicht in arXiv.org
VolltextArtikel -
16
Learning to Project for Cross-Task Knowledge Distillation
Veröffentlicht in arXiv.org
VolltextArtikel -
17
VeLoRA: Memory Efficient Training using Rank-1 Sub-Token Projections
Veröffentlicht in arXiv.org
VolltextArtikel -
18
-
19
-
20