Autenticación de un usuario

Un procedimiento de autenticación de un usuario o locutor, que comprende: obtener una señal de habla de entrada y unas credenciales de usuario que identifican al usuario o locutor, incluyendo la señal de habla de entrada una señal de voz de un solo canal o de múltiples canales; extraer una huella de...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Hauptverfasser: AZANZA LADRON, Eduardo, SANCHEZ YOLDI, Miguel Angel, RONCAL REDIN, David, IRIARTE RUIZ, Ana, LOPEZ ESPEJO, Iván, PRIETO CALERO, Santiago
Format: Patent
Sprache:spa
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
container_end_page
container_issue
container_start_page
container_title
container_volume
creator AZANZA LADRON, Eduardo
SANCHEZ YOLDI, Miguel Angel
RONCAL REDIN, David
IRIARTE RUIZ, Ana
LOPEZ ESPEJO, Iván
PRIETO CALERO, Santiago
description Un procedimiento de autenticación de un usuario o locutor, que comprende: obtener una señal de habla de entrada y unas credenciales de usuario que identifican al usuario o locutor, incluyendo la señal de habla de entrada una señal de voz de un solo canal o de múltiples canales; extraer una huella de voz del habla a partir de la señal del habla de entrada; recuperar una huella de voz de referencia asociada a las credenciales del usuario; determinar una correspondencia de huellas de voz entre la huella de voz del habla y la huella de voz de referencia; autenticar al usuario o locutor en función de la correspondencia entre las huellas de voz; realizar una calibración de puntuación σ(x) de la autenticación del usuario o locutor, en la que x representa una puntuación de la autenticación del usuario o locutor, en la que cuanto más cerca de 1 se encuentra σ(x), más éxito se determina que tiene la autenticación del usuario o locutor, y cuanto más cerca de 0 se encuentra σ(x), menos éxito se determina que tiene la autenticación del usuario o locutor; y actualizar la huella de voz de referencia en función de la huella de voz del habla que corresponde al usuario o locutor autenticado y de si una calibración de puntuación σ(x) de la autenticación del usuario o locutor está por encima o por debajo de un umbral de calibración predefinido Ψ, en base a la siguiente fórmula: en la que ( ) corresponde a la huella de voz de referencia actualizada, ( ) corresponde a la huella de voz de referencia a actualizar, ( ) corresponde a la huella de voz del habla, y λ(σ(x), Ψ, γ) corresponde a un factor de recuerdo determinado en base a la siguiente fórmula: en la que γ es un factor heurístico predefinido que indica una importancia mínima de ( ) durante la actualización. Methods of authenticating a user or speaker are provided. These methods include obtaining an input speech signal and user credentials identifying the user or speaker. The input speech signal includes a single-channel signal or a multi-channel speech signal. The methods further include extracting a speech voiceprint from the input speech signal, and retrieving a reference voiceprint associated to the user credentials. The methods still further include determining a voiceprint correspondence between the speech voiceprint and the reference voiceprint, and authenticating the user or speaker depending on said voiceprint correspondence. The methods yet further include updating the reference voiceprint depending on the speec
format Patent
fullrecord <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_ES2912165TT3</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>ES2912165TT3</sourcerecordid><originalsourceid>FETCH-epo_espacenet_ES2912165TT33</originalsourceid><addsrcrecordid>eNrjZJBxLC1JzSvJTE5Mzjy8OU8hJVWhNE-htLg0sSgzn4eBNS0xpziVF0pzMyi6uYY4e-imFuTHpxYXJCan5qWWxLsGG1kaGhmamYaEGBsTowYA76gk2w</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>Autenticación de un usuario</title><source>esp@cenet</source><creator>AZANZA LADRON, Eduardo ; SANCHEZ YOLDI, Miguel Angel ; RONCAL REDIN, David ; IRIARTE RUIZ, Ana ; LOPEZ ESPEJO, Iván ; PRIETO CALERO, Santiago</creator><creatorcontrib>AZANZA LADRON, Eduardo ; SANCHEZ YOLDI, Miguel Angel ; RONCAL REDIN, David ; IRIARTE RUIZ, Ana ; LOPEZ ESPEJO, Iván ; PRIETO CALERO, Santiago</creatorcontrib><description>Un procedimiento de autenticación de un usuario o locutor, que comprende: obtener una señal de habla de entrada y unas credenciales de usuario que identifican al usuario o locutor, incluyendo la señal de habla de entrada una señal de voz de un solo canal o de múltiples canales; extraer una huella de voz del habla a partir de la señal del habla de entrada; recuperar una huella de voz de referencia asociada a las credenciales del usuario; determinar una correspondencia de huellas de voz entre la huella de voz del habla y la huella de voz de referencia; autenticar al usuario o locutor en función de la correspondencia entre las huellas de voz; realizar una calibración de puntuación σ(x) de la autenticación del usuario o locutor, en la que x representa una puntuación de la autenticación del usuario o locutor, en la que cuanto más cerca de 1 se encuentra σ(x), más éxito se determina que tiene la autenticación del usuario o locutor, y cuanto más cerca de 0 se encuentra σ(x), menos éxito se determina que tiene la autenticación del usuario o locutor; y actualizar la huella de voz de referencia en función de la huella de voz del habla que corresponde al usuario o locutor autenticado y de si una calibración de puntuación σ(x) de la autenticación del usuario o locutor está por encima o por debajo de un umbral de calibración predefinido Ψ, en base a la siguiente fórmula: en la que ( ) corresponde a la huella de voz de referencia actualizada, ( ) corresponde a la huella de voz de referencia a actualizar, ( ) corresponde a la huella de voz del habla, y λ(σ(x), Ψ, γ) corresponde a un factor de recuerdo determinado en base a la siguiente fórmula: en la que γ es un factor heurístico predefinido que indica una importancia mínima de ( ) durante la actualización. Methods of authenticating a user or speaker are provided. These methods include obtaining an input speech signal and user credentials identifying the user or speaker. The input speech signal includes a single-channel signal or a multi-channel speech signal. The methods further include extracting a speech voiceprint from the input speech signal, and retrieving a reference voiceprint associated to the user credentials. The methods still further include determining a voiceprint correspondence between the speech voiceprint and the reference voiceprint, and authenticating the user or speaker depending on said voiceprint correspondence. The methods yet further include updating the reference voiceprint depending on the speech voiceprint corresponding to the authenticated user or speaker. Computer programs, systems and computing systems are also provided which are suitable for performing said methods of authenticating a user or speaker.</description><language>spa</language><subject>ACOUSTICS ; CALCULATING ; COMPUTING ; COUNTING ; ELECTRIC DIGITAL DATA PROCESSING ; MUSICAL INSTRUMENTS ; PHYSICS ; SPEECH ANALYSIS OR SYNTHESIS ; SPEECH OR AUDIO CODING OR DECODING ; SPEECH OR VOICE PROCESSING ; SPEECH RECOGNITION</subject><creationdate>2022</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20220524&amp;DB=EPODOC&amp;CC=ES&amp;NR=2912165T3$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,780,885,25562,76317</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&amp;date=20220524&amp;DB=EPODOC&amp;CC=ES&amp;NR=2912165T3$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>AZANZA LADRON, Eduardo</creatorcontrib><creatorcontrib>SANCHEZ YOLDI, Miguel Angel</creatorcontrib><creatorcontrib>RONCAL REDIN, David</creatorcontrib><creatorcontrib>IRIARTE RUIZ, Ana</creatorcontrib><creatorcontrib>LOPEZ ESPEJO, Iván</creatorcontrib><creatorcontrib>PRIETO CALERO, Santiago</creatorcontrib><title>Autenticación de un usuario</title><description>Un procedimiento de autenticación de un usuario o locutor, que comprende: obtener una señal de habla de entrada y unas credenciales de usuario que identifican al usuario o locutor, incluyendo la señal de habla de entrada una señal de voz de un solo canal o de múltiples canales; extraer una huella de voz del habla a partir de la señal del habla de entrada; recuperar una huella de voz de referencia asociada a las credenciales del usuario; determinar una correspondencia de huellas de voz entre la huella de voz del habla y la huella de voz de referencia; autenticar al usuario o locutor en función de la correspondencia entre las huellas de voz; realizar una calibración de puntuación σ(x) de la autenticación del usuario o locutor, en la que x representa una puntuación de la autenticación del usuario o locutor, en la que cuanto más cerca de 1 se encuentra σ(x), más éxito se determina que tiene la autenticación del usuario o locutor, y cuanto más cerca de 0 se encuentra σ(x), menos éxito se determina que tiene la autenticación del usuario o locutor; y actualizar la huella de voz de referencia en función de la huella de voz del habla que corresponde al usuario o locutor autenticado y de si una calibración de puntuación σ(x) de la autenticación del usuario o locutor está por encima o por debajo de un umbral de calibración predefinido Ψ, en base a la siguiente fórmula: en la que ( ) corresponde a la huella de voz de referencia actualizada, ( ) corresponde a la huella de voz de referencia a actualizar, ( ) corresponde a la huella de voz del habla, y λ(σ(x), Ψ, γ) corresponde a un factor de recuerdo determinado en base a la siguiente fórmula: en la que γ es un factor heurístico predefinido que indica una importancia mínima de ( ) durante la actualización. Methods of authenticating a user or speaker are provided. These methods include obtaining an input speech signal and user credentials identifying the user or speaker. The input speech signal includes a single-channel signal or a multi-channel speech signal. The methods further include extracting a speech voiceprint from the input speech signal, and retrieving a reference voiceprint associated to the user credentials. The methods still further include determining a voiceprint correspondence between the speech voiceprint and the reference voiceprint, and authenticating the user or speaker depending on said voiceprint correspondence. The methods yet further include updating the reference voiceprint depending on the speech voiceprint corresponding to the authenticated user or speaker. Computer programs, systems and computing systems are also provided which are suitable for performing said methods of authenticating a user or speaker.</description><subject>ACOUSTICS</subject><subject>CALCULATING</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>ELECTRIC DIGITAL DATA PROCESSING</subject><subject>MUSICAL INSTRUMENTS</subject><subject>PHYSICS</subject><subject>SPEECH ANALYSIS OR SYNTHESIS</subject><subject>SPEECH OR AUDIO CODING OR DECODING</subject><subject>SPEECH OR VOICE PROCESSING</subject><subject>SPEECH RECOGNITION</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2022</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZJBxLC1JzSvJTE5Mzjy8OU8hJVWhNE-htLg0sSgzn4eBNS0xpziVF0pzMyi6uYY4e-imFuTHpxYXJCan5qWWxLsGG1kaGhmamYaEGBsTowYA76gk2w</recordid><startdate>20220524</startdate><enddate>20220524</enddate><creator>AZANZA LADRON, Eduardo</creator><creator>SANCHEZ YOLDI, Miguel Angel</creator><creator>RONCAL REDIN, David</creator><creator>IRIARTE RUIZ, Ana</creator><creator>LOPEZ ESPEJO, Iván</creator><creator>PRIETO CALERO, Santiago</creator><scope>EVB</scope></search><sort><creationdate>20220524</creationdate><title>Autenticación de un usuario</title><author>AZANZA LADRON, Eduardo ; SANCHEZ YOLDI, Miguel Angel ; RONCAL REDIN, David ; IRIARTE RUIZ, Ana ; LOPEZ ESPEJO, Iván ; PRIETO CALERO, Santiago</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_ES2912165TT33</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>spa</language><creationdate>2022</creationdate><topic>ACOUSTICS</topic><topic>CALCULATING</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>ELECTRIC DIGITAL DATA PROCESSING</topic><topic>MUSICAL INSTRUMENTS</topic><topic>PHYSICS</topic><topic>SPEECH ANALYSIS OR SYNTHESIS</topic><topic>SPEECH OR AUDIO CODING OR DECODING</topic><topic>SPEECH OR VOICE PROCESSING</topic><topic>SPEECH RECOGNITION</topic><toplevel>online_resources</toplevel><creatorcontrib>AZANZA LADRON, Eduardo</creatorcontrib><creatorcontrib>SANCHEZ YOLDI, Miguel Angel</creatorcontrib><creatorcontrib>RONCAL REDIN, David</creatorcontrib><creatorcontrib>IRIARTE RUIZ, Ana</creatorcontrib><creatorcontrib>LOPEZ ESPEJO, Iván</creatorcontrib><creatorcontrib>PRIETO CALERO, Santiago</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>AZANZA LADRON, Eduardo</au><au>SANCHEZ YOLDI, Miguel Angel</au><au>RONCAL REDIN, David</au><au>IRIARTE RUIZ, Ana</au><au>LOPEZ ESPEJO, Iván</au><au>PRIETO CALERO, Santiago</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>Autenticación de un usuario</title><date>2022-05-24</date><risdate>2022</risdate><abstract>Un procedimiento de autenticación de un usuario o locutor, que comprende: obtener una señal de habla de entrada y unas credenciales de usuario que identifican al usuario o locutor, incluyendo la señal de habla de entrada una señal de voz de un solo canal o de múltiples canales; extraer una huella de voz del habla a partir de la señal del habla de entrada; recuperar una huella de voz de referencia asociada a las credenciales del usuario; determinar una correspondencia de huellas de voz entre la huella de voz del habla y la huella de voz de referencia; autenticar al usuario o locutor en función de la correspondencia entre las huellas de voz; realizar una calibración de puntuación σ(x) de la autenticación del usuario o locutor, en la que x representa una puntuación de la autenticación del usuario o locutor, en la que cuanto más cerca de 1 se encuentra σ(x), más éxito se determina que tiene la autenticación del usuario o locutor, y cuanto más cerca de 0 se encuentra σ(x), menos éxito se determina que tiene la autenticación del usuario o locutor; y actualizar la huella de voz de referencia en función de la huella de voz del habla que corresponde al usuario o locutor autenticado y de si una calibración de puntuación σ(x) de la autenticación del usuario o locutor está por encima o por debajo de un umbral de calibración predefinido Ψ, en base a la siguiente fórmula: en la que ( ) corresponde a la huella de voz de referencia actualizada, ( ) corresponde a la huella de voz de referencia a actualizar, ( ) corresponde a la huella de voz del habla, y λ(σ(x), Ψ, γ) corresponde a un factor de recuerdo determinado en base a la siguiente fórmula: en la que γ es un factor heurístico predefinido que indica una importancia mínima de ( ) durante la actualización. Methods of authenticating a user or speaker are provided. These methods include obtaining an input speech signal and user credentials identifying the user or speaker. The input speech signal includes a single-channel signal or a multi-channel speech signal. The methods further include extracting a speech voiceprint from the input speech signal, and retrieving a reference voiceprint associated to the user credentials. The methods still further include determining a voiceprint correspondence between the speech voiceprint and the reference voiceprint, and authenticating the user or speaker depending on said voiceprint correspondence. The methods yet further include updating the reference voiceprint depending on the speech voiceprint corresponding to the authenticated user or speaker. Computer programs, systems and computing systems are also provided which are suitable for performing said methods of authenticating a user or speaker.</abstract><oa>free_for_read</oa></addata></record>
fulltext fulltext_linktorsrc
identifier
ispartof
issn
language spa
recordid cdi_epo_espacenet_ES2912165TT3
source esp@cenet
subjects ACOUSTICS
CALCULATING
COMPUTING
COUNTING
ELECTRIC DIGITAL DATA PROCESSING
MUSICAL INSTRUMENTS
PHYSICS
SPEECH ANALYSIS OR SYNTHESIS
SPEECH OR AUDIO CODING OR DECODING
SPEECH OR VOICE PROCESSING
SPEECH RECOGNITION
title Autenticación de un usuario
url https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2025-01-14T16%3A01%3A26IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=AZANZA%20LADRON,%20Eduardo&rft.date=2022-05-24&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EES2912165TT3%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true