Toward Moderate Overparameterization: Global Convergence Guarantees for Training Shallow Neural Networks
Many modern neural network architectures are trained in an overparameterized regime where the parameters of the model exceed the size of the training dataset. Sufficiently overparameterized neural network architectures in principle have the capacity to fit any set of labels including random noise. H...
Gespeichert in:
Veröffentlicht in: | IEEE journal on selected areas in information theory 2020-05, Vol.1 (1), p.84-105 |
---|---|
Hauptverfasser: | , |
Format: | Artikel |
Sprache: | eng |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Schreiben Sie den ersten Kommentar!