Recurrent Neural Networks for Speaker Dependent Language Modeling
[ANGLÈS] This work focuses on building and testing statistical language models based on recurrent neural networks. Although both speaker independent and dependent language models will be discussed and compared, this thesis makes emphasis on the speaker dependent scenario when building complete autom...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Dissertation |
Sprache: | eng |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | [ANGLÈS] This work focuses on building and testing statistical language models based on recurrent neural networks. Although both speaker independent and dependent language models will be discussed and compared, this thesis makes emphasis on the speaker dependent scenario when building complete automatic speech recognition systems. Traditional techniques for estimating language models are based on N-gram counts and they basically remained the state-of-the-art for many applications. Recently, faster CPUs and efficient techniques made it possible to apply RNN-based language models to state-of-the-art systems efficiently. In this Thesis, you will see reductions in perplexity of RNN-based speaker dependent language models up to 25% relative. The work was carried out at the Department of Speech Technology in M*Modal, Pittsburgh, PA, during the academic year 2013/2014.
[CASTELLÀ] Este trabajo se centra en el desarrollo de modelos de lenguaje estadísticos basados en redes neuronales recurrentes. Aunque los dos escenarios "speaker dependent" y "speaker independent" serán contemplados, discutidos y comparados, este proyecto de final de carrera se centra en el dependiente a la hora de desarrollar sistemas completos de reconocimiento de voz. Las técnicas tradicionales para estimar modelos de lenguaje son basadas en n-gramas, y básicamente han permanecido el estado del arte para muchas aplicaciones. Recientemente, con la mejora de rendimiento de las CPUs y con técnicas para reducir el tiempo de computación de las redes neuronales, ha sido posible aplicar modelos de lenguaje basados en RNNs a sistemas reales. En este trabajo, se verán reducciones de perplejidad de hasta el 25% relativo cuando usamos este tipo de modelos de lenguaje. El trabajo se llevó a cabo en el departamento de tecnologías del habla en M*Modal, Pittsburgh, Pennsylvania, durante el año académico 2013/2014.
[CATALÀ] Aquest treball es centra en el desenvolupament de models de llenguatge estadístics basats en xarxes neuronals recurrents. Encara que ambdós escenaris "speaker dependent" i "speaker independent" seran contemplats i comparats, aquest projecte de final de carrera es centra en el dependent a l'hora de desenvolupar sistemes complets de reconeixement de veu. Les tècniques tradicionals per estimar models de llenguatge són basades en n-grames, i bàsicament s'han mantingut com a l'estat de l'art per moltes aplicacions. Recentment, amb la millora del rendiment de les CPUs i amb tècniques per reduir e |
---|