TRAINING SPEAKER RECOGNITION MODELS FOR DIGITAL ASSISTANTS

Techniques for training a speaker recognition model used for interacting with a digital assistant are provided. In some examples, user authentication information is obtained at a first time. At a second time, a user utterance representing a user request is received. A voice print is generated from t...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
1. Verfasser: KAJAREKAR, Sachin S
Format: Patent
Sprache:eng ; fre
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator KAJAREKAR, Sachin S
description Techniques for training a speaker recognition model used for interacting with a digital assistant are provided. In some examples, user authentication information is obtained at a first time. At a second time, a user utterance representing a user request is received. A voice print is generated from the user utterance. A determination is made as to whether a plurality of conditions are satisfied. The plurality of conditions includes a first condition that the user authentication information corresponds to one or more authentication credentials assigned to a registered user of an electronic device. The plurality of conditions further includes a second condition that the first time and the second time are not separated by more than a predefined time period. In accordance with a determination that the plurality of conditions are satisfied, a speaker profile assigned to the registered user is updated based on the voice print. La présente invention concerne des techniques d'apprentissage d'un modèle de reconnaissance de locuteur, utilisées pour interagir avec un assistant numérique. Dans certains exemples, des informations d'authentification d'utilisateur sont obtenues à un premier instant. A un second instant, un énoncé d'utilisateur qui représente une demande utilisateur est reçu. Une impression vocale est générée à partir de l'énoncé d'utilisateur. Une détermination du fait qu'une pluralité de conditions sont respectées ou non est réalisée. La pluralité de conditions comprend une première condition selon laquelle les informations d'authentification d'utilisateur correspondent à un ou plusieurs justificatifs d'authentification attribués à un utilisateur enregistré d'un dispositif électronique. La pluralité de conditions comprend en outre une seconde condition selon laquelle le premier instant et le second instant ne sont pas séparés par plus d'une période de temps prédéfinie. Conformément à une détermination que la pluralité de conditions sont respectées, un profil de locuteur attribué à l'utilisateur enregistré est mis à jour sur la base de l'impression vocale.
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2019168661A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2019168661A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2019168661A13</originalsourceid><addsrcrecordid>eNrjZLAKCXL09PP0c1cIDnB19HYNUghydfZ39_MM8fT3U_D1d3H1CVZw8w9ScPF09wxx9FFwDA72DA5x9AsJ5mFgTUvMKU7lhdLcDMpuriHOHrqpBfnxqcUFicmpeakl8eH-RgaGloZmFmZmho6GxsSpAgB2NCo_</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>TRAINING SPEAKER RECOGNITION MODELS FOR DIGITAL ASSISTANTS</title><source>esp@cenet</source><creator>KAJAREKAR, Sachin S</creator><creatorcontrib>KAJAREKAR, Sachin S</creatorcontrib><description>Techniques for training a speaker recognition model used for interacting with a digital assistant are provided. In some examples, user authentication information is obtained at a first time. At a second time, a user utterance representing a user request is received. A voice print is generated from the user utterance. A determination is made as to whether a plurality of conditions are satisfied. The plurality of conditions includes a first condition that the user authentication information corresponds to one or more authentication credentials assigned to a registered user of an electronic device. The plurality of conditions further includes a second condition that the first time and the second time are not separated by more than a predefined time period. In accordance with a determination that the plurality of conditions are satisfied, a speaker profile assigned to the registered user is updated based on the voice print. La présente invention concerne des techniques d'apprentissage d'un modèle de reconnaissance de locuteur, utilisées pour interagir avec un assistant numérique. Dans certains exemples, des informations d'authentification d'utilisateur sont obtenues à un premier instant. A un second instant, un énoncé d'utilisateur qui représente une demande utilisateur est reçu. Une impression vocale est générée à partir de l'énoncé d'utilisateur. Une détermination du fait qu'une pluralité de conditions sont respectées ou non est réalisée. La pluralité de conditions comprend une première condition selon laquelle les informations d'authentification d'utilisateur correspondent à un ou plusieurs justificatifs d'authentification attribués à un utilisateur enregistré d'un dispositif électronique. La pluralité de conditions comprend en outre une seconde condition selon laquelle le premier instant et le second instant ne sont pas séparés par plus d'une période de temps prédéfinie. Conformément à une détermination que la pluralité de conditions sont respectées, un profil de locuteur attribué à l'utilisateur enregistré est mis à jour sur la base de l'impression vocale.</description><language>eng ; fre</language><subject>ACOUSTICS ; MUSICAL INSTRUMENTS ; PHYSICS ; SPEECH ANALYSIS OR SYNTHESIS ; SPEECH OR AUDIO CODING OR DECODING ; SPEECH OR VOICE PROCESSING ; SPEECH RECOGNITION</subject><creationdate>2019</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20190906&amp;DB=EPODOC&amp;CC=WO&amp;NR=2019168661A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,777,882,25545,76296</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20190906&amp;DB=EPODOC&amp;CC=WO&amp;NR=2019168661A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>KAJAREKAR, Sachin S</creatorcontrib><title>TRAINING SPEAKER RECOGNITION MODELS FOR DIGITAL ASSISTANTS</title><description>Techniques for training a speaker recognition model used for interacting with a digital assistant are provided. In some examples, user authentication information is obtained at a first time. At a second time, a user utterance representing a user request is received. A voice print is generated from the user utterance. A determination is made as to whether a plurality of conditions are satisfied. The plurality of conditions includes a first condition that the user authentication information corresponds to one or more authentication credentials assigned to a registered user of an electronic device. The plurality of conditions further includes a second condition that the first time and the second time are not separated by more than a predefined time period. In accordance with a determination that the plurality of conditions are satisfied, a speaker profile assigned to the registered user is updated based on the voice print. La présente invention concerne des techniques d'apprentissage d'un modèle de reconnaissance de locuteur, utilisées pour interagir avec un assistant numérique. Dans certains exemples, des informations d'authentification d'utilisateur sont obtenues à un premier instant. A un second instant, un énoncé d'utilisateur qui représente une demande utilisateur est reçu. Une impression vocale est générée à partir de l'énoncé d'utilisateur. Une détermination du fait qu'une pluralité de conditions sont respectées ou non est réalisée. La pluralité de conditions comprend une première condition selon laquelle les informations d'authentification d'utilisateur correspondent à un ou plusieurs justificatifs d'authentification attribués à un utilisateur enregistré d'un dispositif électronique. La pluralité de conditions comprend en outre une seconde condition selon laquelle le premier instant et le second instant ne sont pas séparés par plus d'une période de temps prédéfinie. Conformément à une détermination que la pluralité de conditions sont respectées, un profil de locuteur attribué à l'utilisateur enregistré est mis à jour sur la base de l'impression vocale.</description><subject>ACOUSTICS</subject><subject>MUSICAL INSTRUMENTS</subject><subject>PHYSICS</subject><subject>SPEECH ANALYSIS OR SYNTHESIS</subject><subject>SPEECH OR AUDIO CODING OR DECODING</subject><subject>SPEECH OR VOICE PROCESSING</subject><subject>SPEECH RECOGNITION</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2019</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZLAKCXL09PP0c1cIDnB19HYNUghydfZ39_MM8fT3U_D1d3H1CVZw8w9ScPF09wxx9FFwDA72DA5x9AsJ5mFgTUvMKU7lhdLcDMpuriHOHrqpBfnxqcUFicmpeakl8eH-RgaGloZmFmZmho6GxsSpAgB2NCo_</recordid><startdate>20190906</startdate><enddate>20190906</enddate><creator>KAJAREKAR, Sachin S</creator><scope>EVB</scope></search><sort><creationdate>20190906</creationdate><title>TRAINING SPEAKER RECOGNITION MODELS FOR DIGITAL ASSISTANTS</title><author>KAJAREKAR, Sachin S</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2019168661A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2019</creationdate><topic>ACOUSTICS</topic><topic>MUSICAL INSTRUMENTS</topic><topic>PHYSICS</topic><topic>SPEECH ANALYSIS OR SYNTHESIS</topic><topic>SPEECH OR AUDIO CODING OR DECODING</topic><topic>SPEECH OR VOICE PROCESSING</topic><topic>SPEECH RECOGNITION</topic><toplevel>online_resources</toplevel><creatorcontrib>KAJAREKAR, Sachin S</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>KAJAREKAR, Sachin S</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>TRAINING SPEAKER RECOGNITION MODELS FOR DIGITAL ASSISTANTS</title><date>2019-09-06</date><risdate>2019</risdate><abstract>Techniques for training a speaker recognition model used for interacting with a digital assistant are provided. In some examples, user authentication information is obtained at a first time. At a second time, a user utterance representing a user request is received. A voice print is generated from the user utterance. A determination is made as to whether a plurality of conditions are satisfied. The plurality of conditions includes a first condition that the user authentication information corresponds to one or more authentication credentials assigned to a registered user of an electronic device. The plurality of conditions further includes a second condition that the first time and the second time are not separated by more than a predefined time period. In accordance with a determination that the plurality of conditions are satisfied, a speaker profile assigned to the registered user is updated based on the voice print. La présente invention concerne des techniques d'apprentissage d'un modèle de reconnaissance de locuteur, utilisées pour interagir avec un assistant numérique. Dans certains exemples, des informations d'authentification d'utilisateur sont obtenues à un premier instant. A un second instant, un énoncé d'utilisateur qui représente une demande utilisateur est reçu. Une impression vocale est générée à partir de l'énoncé d'utilisateur. Une détermination du fait qu'une pluralité de conditions sont respectées ou non est réalisée. La pluralité de conditions comprend une première condition selon laquelle les informations d'authentification d'utilisateur correspondent à un ou plusieurs justificatifs d'authentification attribués à un utilisateur enregistré d'un dispositif électronique. La pluralité de conditions comprend en outre une seconde condition selon laquelle le premier instant et le second instant ne sont pas séparés par plus d'une période de temps prédéfinie. Conformément à une détermination que la pluralité de conditions sont respectées, un profil de locuteur attribué à l'utilisateur enregistré est mis à jour sur la base de l'impression vocale.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language eng ; fre
recordid cdi_epo_espacenet_WO2019168661A1
source esp@cenet
subjects ACOUSTICS
MUSICAL INSTRUMENTS
PHYSICS
SPEECH ANALYSIS OR SYNTHESIS
SPEECH OR AUDIO CODING OR DECODING
SPEECH OR VOICE PROCESSING
SPEECH RECOGNITION
title TRAINING SPEAKER RECOGNITION MODELS FOR DIGITAL ASSISTANTS
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-20T03%3A07%3A55IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=KAJAREKAR,%20Sachin%20S&rft.date=2019-09-06&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2019168661A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true