Reciprocal Teacher-Student Learning via Forward and Feedback Knowledge Distillation

Knowledge distillation (KD) is a prevalent model compression technique in deep learning, aiming to leverage knowledge from a large teacher model to enhance the training of a smaller student model. It has found success in deploying compact deep models in intelligent applications like intelligent tran...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:IEEE transactions on multimedia 2024, Vol.26, p.7901-7916
Hauptverfasser: Gou, Jianping, Chen, Yu, Yu, Baosheng, Liu, Jinhua, Du, Lan, Wan, Shaohua, Yi, Zhang
Format: Artikel
Sprache:eng
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!