Asymptotic theory for local estimators based on Bregman divergence
This article is concerned with asymptotic theory for local estimators based on Bregman divergence. We consider a localized version of Bregman divergence induced by a kernel weight and minimize it to obtain the local estimator. We provide a rigorous proof for the asymptotic consistency of the local e...
Gespeichert in:
Veröffentlicht in: | Canadian journal of statistics 2019-12, Vol.47 (4), p.628-652 |
---|---|
Hauptverfasser: | , |
Format: | Artikel |
Sprache: | eng |
Schlagworte: | |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | This article is concerned with asymptotic theory for local estimators based on Bregman divergence. We consider a localized version of Bregman divergence induced by a kernel weight and minimize it to obtain the local estimator. We provide a rigorous proof for the asymptotic consistency of the local estimator in a situation where both the sample size and the bandwidth involved in the kernel weight increase. Asymptotic normality of the local estimator is also developed under the same asymptotic scenario. Monte Carlo simulations are also performed to confirm the theoretical results.
Cet article porte sur la théorie asymptotique des estimateurs locaux basés sur la divergence de Bregman. Les auteurs considèrent une version locale de la divergence de Bregman induite par un noyau de pondération et dont ils minimisent la valeur pour obtenir un estimateur local. Ils offrent une preuve rigoureuse de la convergence asymptotique de l’estimateur local dans le cas où la taille d’échantillon et la fenêtre du noyau augmentent. Ils obtiennent également la normalité asymptotique sous le même scénario. Ils présentent finalement des simulations de Monte Carlo afin de confirmer les résultats théoriques. |
---|---|
ISSN: | 0319-5724 1708-945X |
DOI: | 10.1002/cjs.11516 |