Ускоренный и неускореный стохастический градиентный спуск в модельной общности

В статье описывается новый способ получения оценок скорости сходимости оптимальных методов решения задач гладкой (сильно) выпуклой стохастической оптимизации. Способ базируется на получение результатов стохастической оптимизации на основе результатов о сходимости оптимальных методов в условиях неточ...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:Matematic̆eskie zametki 2020, Vol.108 (4), p.515-528
Hauptverfasser: Dvinskikh, Darina Mikhailovna, Turin, Aleksandr Igorevich, Gasnikov, Alexander Vladimirovich, Omelchenko, Sergey Sergeevich
Format: Artikel
Sprache:rus
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:В статье описывается новый способ получения оценок скорости сходимости оптимальных методов решения задач гладкой (сильно) выпуклой стохастической оптимизации. Способ базируется на получение результатов стохастической оптимизации на основе результатов о сходимости оптимальных методов в условиях неточных градиентов с малыми шумами неслучайной природы. В отличие от известных ранее результатов в данной работе все оценки получаются в модельной общности. Библиография: 13 названий. A new method for deriving estimates of the rate of convergence of optimal methods for solving problems of smooth (strongly) convex stochastic optimization is described. The method is based on the results of stochastic optimization derived from results on the convergence of optimal methods under the conditions of inexact gradients with small noises of nonrandom nature. In contrast to earlier results, all estimates in the present paper are obtained in model generality.
ISSN:0025-567X
2305-2880
DOI:10.4213/mzm12751