-
1
-
2
-
3
-
4
-
5
TEQ: Trainable Equivalent Transformation for Quantization of LLMs
Veröffentlicht in arXiv.org
VolltextArtikel -
6
Optimize Weight Rounding via Signed Gradient Descent for the Quantization of LLMs
Veröffentlicht in arXiv.org
VolltextArtikel