감정 정보 기반의 음성 합성 방법 및 장치

감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: YANG SIYOUNG, JANG JUYEONG, HAN SUNGMIN, CHAE JONGHOON, PARK YONGCHUL
Format: Patent
Sprache:kor
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator YANG SIYOUNG
JANG JUYEONG
HAN SUNGMIN
CHAE JONGHOON
PARK YONGCHUL
description 감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수행할 수 있다. Disclosed are an emotion classification information-based text-to-speech (TTS) method and device. The emotion classification information-based TTS method according to an embodiment of the present invention may, when emotion classification information is set in a received message, transmit metadata corresponding to the set emotion classification information to a speech synthesis engine and, when no emotion classification information is set in the received message, generate new emotion classification information through semantic analysis and context analysis of sentences in the received message and transmit the metadata to the speech synthesis engine. The speech synthesis engine may perform speech synthesis by carrying emotion classification information based on the transmitted metadata.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_KR20210103002A</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>KR20210103002A</sourcerecordid><originalsourceid>FETCH-epo_espacenet_KR20210103002A3</originalsourceid><addsrcrecordid>eNrjZDB_tWHCmwVTFYD49eYtCq92bHi9YcabuTMU3sztedOyUeHt1JUg6vWGla83TQVS_Qpv5i19s3MGDwNrWmJOcSovlOZmUHZzDXH20E0tyI9PLS5ITE7NSy2J9w4yMjAyNDA0MDYwMHI0Jk4VAJyGPaI</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>감정 정보 기반의 음성 합성 방법 및 장치</title><source>esp@cenet</source><creator>YANG SIYOUNG ; JANG JUYEONG ; HAN SUNGMIN ; CHAE JONGHOON ; PARK YONGCHUL</creator><creatorcontrib>YANG SIYOUNG ; JANG JUYEONG ; HAN SUNGMIN ; CHAE JONGHOON ; PARK YONGCHUL</creatorcontrib><description>감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수행할 수 있다. Disclosed are an emotion classification information-based text-to-speech (TTS) method and device. The emotion classification information-based TTS method according to an embodiment of the present invention may, when emotion classification information is set in a received message, transmit metadata corresponding to the set emotion classification information to a speech synthesis engine and, when no emotion classification information is set in the received message, generate new emotion classification information through semantic analysis and context analysis of sentences in the received message and transmit the metadata to the speech synthesis engine. The speech synthesis engine may perform speech synthesis by carrying emotion classification information based on the transmitted metadata.</description><language>kor</language><subject>ACOUSTICS ; MUSICAL INSTRUMENTS ; PHYSICS ; SPEECH ANALYSIS OR SYNTHESIS ; SPEECH OR AUDIO CODING OR DECODING ; SPEECH OR VOICE PROCESSING ; SPEECH RECOGNITION</subject><creationdate>2021</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20210823&amp;DB=EPODOC&amp;CC=KR&amp;NR=20210103002A$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,776,881,25542,76289</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20210823&amp;DB=EPODOC&amp;CC=KR&amp;NR=20210103002A$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>YANG SIYOUNG</creatorcontrib><creatorcontrib>JANG JUYEONG</creatorcontrib><creatorcontrib>HAN SUNGMIN</creatorcontrib><creatorcontrib>CHAE JONGHOON</creatorcontrib><creatorcontrib>PARK YONGCHUL</creatorcontrib><title>감정 정보 기반의 음성 합성 방법 및 장치</title><description>감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수행할 수 있다. Disclosed are an emotion classification information-based text-to-speech (TTS) method and device. The emotion classification information-based TTS method according to an embodiment of the present invention may, when emotion classification information is set in a received message, transmit metadata corresponding to the set emotion classification information to a speech synthesis engine and, when no emotion classification information is set in the received message, generate new emotion classification information through semantic analysis and context analysis of sentences in the received message and transmit the metadata to the speech synthesis engine. The speech synthesis engine may perform speech synthesis by carrying emotion classification information based on the transmitted metadata.</description><subject>ACOUSTICS</subject><subject>MUSICAL INSTRUMENTS</subject><subject>PHYSICS</subject><subject>SPEECH ANALYSIS OR SYNTHESIS</subject><subject>SPEECH OR AUDIO CODING OR DECODING</subject><subject>SPEECH OR VOICE PROCESSING</subject><subject>SPEECH RECOGNITION</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2021</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZDB_tWHCmwVTFYD49eYtCq92bHi9YcabuTMU3sztedOyUeHt1JUg6vWGla83TQVS_Qpv5i19s3MGDwNrWmJOcSovlOZmUHZzDXH20E0tyI9PLS5ITE7NSy2J9w4yMjAyNDA0MDYwMHI0Jk4VAJyGPaI</recordid><startdate>20210823</startdate><enddate>20210823</enddate><creator>YANG SIYOUNG</creator><creator>JANG JUYEONG</creator><creator>HAN SUNGMIN</creator><creator>CHAE JONGHOON</creator><creator>PARK YONGCHUL</creator><scope>EVB</scope></search><sort><creationdate>20210823</creationdate><title>감정 정보 기반의 음성 합성 방법 및 장치</title><author>YANG SIYOUNG ; JANG JUYEONG ; HAN SUNGMIN ; CHAE JONGHOON ; PARK YONGCHUL</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_KR20210103002A3</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>kor</language><creationdate>2021</creationdate><topic>ACOUSTICS</topic><topic>MUSICAL INSTRUMENTS</topic><topic>PHYSICS</topic><topic>SPEECH ANALYSIS OR SYNTHESIS</topic><topic>SPEECH OR AUDIO CODING OR DECODING</topic><topic>SPEECH OR VOICE PROCESSING</topic><topic>SPEECH RECOGNITION</topic><toplevel>online_resources</toplevel><creatorcontrib>YANG SIYOUNG</creatorcontrib><creatorcontrib>JANG JUYEONG</creatorcontrib><creatorcontrib>HAN SUNGMIN</creatorcontrib><creatorcontrib>CHAE JONGHOON</creatorcontrib><creatorcontrib>PARK YONGCHUL</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>YANG SIYOUNG</au><au>JANG JUYEONG</au><au>HAN SUNGMIN</au><au>CHAE JONGHOON</au><au>PARK YONGCHUL</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>감정 정보 기반의 음성 합성 방법 및 장치</title><date>2021-08-23</date><risdate>2021</risdate><abstract>감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수행할 수 있다. Disclosed are an emotion classification information-based text-to-speech (TTS) method and device. The emotion classification information-based TTS method according to an embodiment of the present invention may, when emotion classification information is set in a received message, transmit metadata corresponding to the set emotion classification information to a speech synthesis engine and, when no emotion classification information is set in the received message, generate new emotion classification information through semantic analysis and context analysis of sentences in the received message and transmit the metadata to the speech synthesis engine. The speech synthesis engine may perform speech synthesis by carrying emotion classification information based on the transmitted metadata.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language kor
recordid cdi_epo_espacenet_KR20210103002A
source esp@cenet
subjects ACOUSTICS
MUSICAL INSTRUMENTS
PHYSICS
SPEECH ANALYSIS OR SYNTHESIS
SPEECH OR AUDIO CODING OR DECODING
SPEECH OR VOICE PROCESSING
SPEECH RECOGNITION
title 감정 정보 기반의 음성 합성 방법 및 장치
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-02-12T12%3A01%3A47IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=YANG%20SIYOUNG&rft.date=2021-08-23&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EKR20210103002A%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true