基于生成对抗网络合成噪声的语音增强方法研究

TN912.3; 在语音增强领域,深度神经网络通过对大量含有不同噪声的语音以监督学习方式进行训练建模,从而提升网络的语音增强能力.然而不同类型噪声的获取成本较大,噪声类型难以全面采集,影响了模型的泛化能力.针对这个问题,提出一种基于生成对抗网络(Generative Adversarial Networks,GAN)的噪声数据样本增强方法,该方法对真实噪声数据进行学习,根据数据特征合成虚拟噪声,以此扩充训练集中噪声数据的数量和类型.通过实验验证,所采用的噪声合成方法能够有效扩展训练集中噪声来源,增强模型的泛化能力,有效提高语音信号去噪处理后的信噪比和可理解性....

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:电子技术应用 2020, Vol.46 (11), p.56-64
Hauptverfasser: 夏鼎, 徐文涛
Format: Artikel
Sprache:chi
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page 64
container_issue 11
container_start_page 56
container_title 电子技术应用
container_volume 46
creator 夏鼎
徐文涛
description TN912.3; 在语音增强领域,深度神经网络通过对大量含有不同噪声的语音以监督学习方式进行训练建模,从而提升网络的语音增强能力.然而不同类型噪声的获取成本较大,噪声类型难以全面采集,影响了模型的泛化能力.针对这个问题,提出一种基于生成对抗网络(Generative Adversarial Networks,GAN)的噪声数据样本增强方法,该方法对真实噪声数据进行学习,根据数据特征合成虚拟噪声,以此扩充训练集中噪声数据的数量和类型.通过实验验证,所采用的噪声合成方法能够有效扩展训练集中噪声来源,增强模型的泛化能力,有效提高语音信号去噪处理后的信噪比和可理解性.
doi_str_mv 10.16157/j.issn.0258-7998.200327
format Article
fullrecord <record><control><sourceid>wanfang_jour</sourceid><recordid>TN_cdi_wanfang_journals_dzjsyy202011012</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><wanfj_id>dzjsyy202011012</wanfj_id><sourcerecordid>dzjsyy202011012</sourcerecordid><originalsourceid>FETCH-wanfang_journals_dzjsyy2020110123</originalsourceid><addsrcrecordid>eNpjYFAwNNAzNDM0NdfP0sssLs7TMzAytdA1t7S00DMyMDA2Mmdh4IQLcTDwFhdnJhkYGBoaGFmYGnMy2D-dv-vJrr7nU-Y_65jwdP3OZ13Tn--d-Hz3nKcTOkAiM1c9Xbzh-ayWF-vXvpy_-emieU_37Ho2beezzVOfL5jyfOU2HgbWtMSc4lReKM3NoO7mGuLsoVuemJeWmJcen5VfWpQHlIlPqcoqrqw0MjACWW5oZEy8SgCn3Fng</addsrcrecordid><sourcetype>Aggregation Database</sourcetype><iscdi>true</iscdi><recordtype>article</recordtype></control><display><type>article</type><title>基于生成对抗网络合成噪声的语音增强方法研究</title><source>DOAJ Directory of Open Access Journals</source><creator>夏鼎 ; 徐文涛</creator><creatorcontrib>夏鼎 ; 徐文涛</creatorcontrib><description>TN912.3; 在语音增强领域,深度神经网络通过对大量含有不同噪声的语音以监督学习方式进行训练建模,从而提升网络的语音增强能力.然而不同类型噪声的获取成本较大,噪声类型难以全面采集,影响了模型的泛化能力.针对这个问题,提出一种基于生成对抗网络(Generative Adversarial Networks,GAN)的噪声数据样本增强方法,该方法对真实噪声数据进行学习,根据数据特征合成虚拟噪声,以此扩充训练集中噪声数据的数量和类型.通过实验验证,所采用的噪声合成方法能够有效扩展训练集中噪声来源,增强模型的泛化能力,有效提高语音信号去噪处理后的信噪比和可理解性.</description><identifier>ISSN: 0258-7998</identifier><identifier>DOI: 10.16157/j.issn.0258-7998.200327</identifier><language>chi</language><publisher>南京航空航天大学理学院,江苏南京211106</publisher><ispartof>电子技术应用, 2020, Vol.46 (11), p.56-64</ispartof><rights>Copyright © Wanfang Data Co. Ltd. All Rights Reserved.</rights><lds50>peer_reviewed</lds50><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Uhttp://www.wanfangdata.com.cn/images/PeriodicalImages/dzjsyy/dzjsyy.jpg</thumbnail><link.rule.ids>314,780,784,864,4024,27923,27924,27925</link.rule.ids></links><search><creatorcontrib>夏鼎</creatorcontrib><creatorcontrib>徐文涛</creatorcontrib><title>基于生成对抗网络合成噪声的语音增强方法研究</title><title>电子技术应用</title><description>TN912.3; 在语音增强领域,深度神经网络通过对大量含有不同噪声的语音以监督学习方式进行训练建模,从而提升网络的语音增强能力.然而不同类型噪声的获取成本较大,噪声类型难以全面采集,影响了模型的泛化能力.针对这个问题,提出一种基于生成对抗网络(Generative Adversarial Networks,GAN)的噪声数据样本增强方法,该方法对真实噪声数据进行学习,根据数据特征合成虚拟噪声,以此扩充训练集中噪声数据的数量和类型.通过实验验证,所采用的噪声合成方法能够有效扩展训练集中噪声来源,增强模型的泛化能力,有效提高语音信号去噪处理后的信噪比和可理解性.</description><issn>0258-7998</issn><fulltext>true</fulltext><rsrctype>article</rsrctype><creationdate>2020</creationdate><recordtype>article</recordtype><recordid>eNpjYFAwNNAzNDM0NdfP0sssLs7TMzAytdA1t7S00DMyMDA2Mmdh4IQLcTDwFhdnJhkYGBoaGFmYGnMy2D-dv-vJrr7nU-Y_65jwdP3OZ13Tn--d-Hz3nKcTOkAiM1c9Xbzh-ayWF-vXvpy_-emieU_37Ho2beezzVOfL5jyfOU2HgbWtMSc4lReKM3NoO7mGuLsoVuemJeWmJcen5VfWpQHlIlPqcoqrqw0MjACWW5oZEy8SgCn3Fng</recordid><startdate>2020</startdate><enddate>2020</enddate><creator>夏鼎</creator><creator>徐文涛</creator><general>南京航空航天大学理学院,江苏南京211106</general><scope>2B.</scope><scope>4A8</scope><scope>92I</scope><scope>93N</scope><scope>PSX</scope><scope>TCJ</scope></search><sort><creationdate>2020</creationdate><title>基于生成对抗网络合成噪声的语音增强方法研究</title><author>夏鼎 ; 徐文涛</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-wanfang_journals_dzjsyy2020110123</frbrgroupid><rsrctype>articles</rsrctype><prefilter>articles</prefilter><language>chi</language><creationdate>2020</creationdate><toplevel>peer_reviewed</toplevel><toplevel>online_resources</toplevel><creatorcontrib>夏鼎</creatorcontrib><creatorcontrib>徐文涛</creatorcontrib><collection>Wanfang Data Journals - Hong Kong</collection><collection>WANFANG Data Centre</collection><collection>Wanfang Data Journals</collection><collection>万方数据期刊 - 香港版</collection><collection>China Online Journals (COJ)</collection><collection>China Online Journals (COJ)</collection><jtitle>电子技术应用</jtitle></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext</fulltext></delivery><addata><au>夏鼎</au><au>徐文涛</au><format>journal</format><genre>article</genre><ristype>JOUR</ristype><atitle>基于生成对抗网络合成噪声的语音增强方法研究</atitle><jtitle>电子技术应用</jtitle><date>2020</date><risdate>2020</risdate><volume>46</volume><issue>11</issue><spage>56</spage><epage>64</epage><pages>56-64</pages><issn>0258-7998</issn><abstract>TN912.3; 在语音增强领域,深度神经网络通过对大量含有不同噪声的语音以监督学习方式进行训练建模,从而提升网络的语音增强能力.然而不同类型噪声的获取成本较大,噪声类型难以全面采集,影响了模型的泛化能力.针对这个问题,提出一种基于生成对抗网络(Generative Adversarial Networks,GAN)的噪声数据样本增强方法,该方法对真实噪声数据进行学习,根据数据特征合成虚拟噪声,以此扩充训练集中噪声数据的数量和类型.通过实验验证,所采用的噪声合成方法能够有效扩展训练集中噪声来源,增强模型的泛化能力,有效提高语音信号去噪处理后的信噪比和可理解性.</abstract><pub>南京航空航天大学理学院,江苏南京211106</pub><doi>10.16157/j.issn.0258-7998.200327</doi></addata></record>
fulltext fulltext
identifier ISSN: 0258-7998
ispartof 电子技术应用, 2020, Vol.46 (11), p.56-64
issn 0258-7998
language chi
recordid cdi_wanfang_journals_dzjsyy202011012
source DOAJ Directory of Open Access Journals
title 基于生成对抗网络合成噪声的语音增强方法研究
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-04T08%3A12%3A03IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-wanfang_jour&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.genre=article&rft.atitle=%E5%9F%BA%E4%BA%8E%E7%94%9F%E6%88%90%E5%AF%B9%E6%8A%97%E7%BD%91%E7%BB%9C%E5%90%88%E6%88%90%E5%99%AA%E5%A3%B0%E7%9A%84%E8%AF%AD%E9%9F%B3%E5%A2%9E%E5%BC%BA%E6%96%B9%E6%B3%95%E7%A0%94%E7%A9%B6&rft.jtitle=%E7%94%B5%E5%AD%90%E6%8A%80%E6%9C%AF%E5%BA%94%E7%94%A8&rft.au=%E5%A4%8F%E9%BC%8E&rft.date=2020&rft.volume=46&rft.issue=11&rft.spage=56&rft.epage=64&rft.pages=56-64&rft.issn=0258-7998&rft_id=info:doi/10.16157/j.issn.0258-7998.200327&rft_dat=%3Cwanfang_jour%3Edzjsyy202011012%3C/wanfang_jour%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rft_wanfj_id=dzjsyy202011012&rfr_iscdi=true