감정 정보 기반의 음성 합성 방법 및 장치

감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: YANG SIYOUNG, JANG JUYEONG, HAN SUNGMIN, CHAE JONGHOON, PARK YONGCHUL
Format: Patent
Sprache:kor
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:감정 정보 기반의 음성 합성 방법 및 장치를 개시한다. 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법은, 수신된 메시지에 감정 정보가 설정된 경우, 설정된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달하고, 수신된 메시지에 감정 정보가 설정되어 있지 않은 경우, 수신된 메시지의 문장 내 의미 분석 및 문맥 분석을 통해 새로운 감정 정보를 생성하고, 생성된 감정 정보에 대응하는 메타 데이터를 음성 합성 엔진으로 전달한다. 음성 합성 엔진은 전달된 메타 데이터에 기초하여 감정 정보를 실어서 음성 합성을 수행할 수 있다. Disclosed are an emotion classification information-based text-to-speech (TTS) method and device. The emotion classification information-based TTS method according to an embodiment of the present invention may, when emotion classification information is set in a received message, transmit metadata corresponding to the set emotion classification information to a speech synthesis engine and, when no emotion classification information is set in the received message, generate new emotion classification information through semantic analysis and context analysis of sentences in the received message and transmit the metadata to the speech synthesis engine. The speech synthesis engine may perform speech synthesis by carrying emotion classification information based on the transmitted metadata.