GENERATING MULTI-SENSORY CONTENT BASED ON USER STATE
A technique for providing multi-sensory content receives input information that expresses a physiological state and experienced emotional state of a user. The technique generates prompt information that describes at least an objective of guidance to be delivered and the input information. The techni...
Gespeichert in:
Hauptverfasser: | , , |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
container_end_page | |
---|---|
container_issue | |
container_start_page | |
container_title | |
container_volume | |
creator | PATRICIA CZERWINSKI, Mary HERNANDEZ RIVERA, Javier AMORES FERNANDEZ, Judith |
description | A technique for providing multi-sensory content receives input information that expresses a physiological state and experienced emotional state of a user. The technique generates prompt information that describes at least an objective of guidance to be delivered and the input information. The technique maps the prompt information to output information using a pattern completion component. The output information contains control instructions for controlling an output system to deliver the guidance via generated content. In some implementations, the pattern completion component is a machine-trained pattern completion model. In some implementations, a reward-driven machine-trained model further processes the input information and/or the output information. The reward-driven machine-trained model is trained by reinforcement learning to promote the objective of the guidance. In other implementations, the reward-driven machine-trained model operates by itself, without the pattern completion component.
L'invention concerne une technique pour la fourniture d'un contenu multisensoriel, qui reçoit des informations d'entrée qui expriment un état physiologique et un état émotionnel éprouvé d'un utilisateur. La technique génère des informations d'invite qui décrivent au moins un objectif de guidage devant être émis et les informations d'entrée. La technique met en correspondance les informations d'invite avec des informations de sortie à l'aide d'un composant de réalisation de motif. Les informations de sortie contiennent des instructions de commande pour la commande d'un système de sortie pour émettre le guidage par l'intermédiaire d'un contenu généré. Dans certains modes de réalisation, le composant de réalisation de motif est un modèle de réalisation de motif entraîné par machine. Dans certains modes de réalisation, un modèle entraîné par machine à pilotage par récompense traite en outre les informations d'entrée et/ou les informations de sortie. Le modèle entraîné par machine à pilotage par récompense est entraîné par apprentissage par renforcement pour favoriser l'objectif du guidage. Dans d'autres modes de réalisation, le modèle entraîné par machine à pilotage par récompense fonctionne de lui-même, sans le composant de réalisation de motif. |
format | Patent |
fullrecord | <record><control><sourceid>epo_EVB</sourceid><recordid>TN_cdi_epo_espacenet_WO2024182162A1</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>WO2024182162A1</sourcerecordid><originalsourceid>FETCH-epo_espacenet_WO2024182162A13</originalsourceid><addsrcrecordid>eNrjZDBxd_VzDXIM8fRzV_AN9Qnx1A129Qv2D4pUcPb3C3H1C1Fwcgx2dVHw91MIDXYNUggOcQxx5WFgTUvMKU7lhdLcDMpuriHOHrqpBfnxqcUFicmpeakl8eH-RgZGJoYWRoZmRo6GxsSpAgB4iyhp</addsrcrecordid><sourcetype>Open Access Repository</sourcetype><iscdi>true</iscdi><recordtype>patent</recordtype></control><display><type>patent</type><title>GENERATING MULTI-SENSORY CONTENT BASED ON USER STATE</title><source>esp@cenet</source><creator>PATRICIA CZERWINSKI, Mary ; HERNANDEZ RIVERA, Javier ; AMORES FERNANDEZ, Judith</creator><creatorcontrib>PATRICIA CZERWINSKI, Mary ; HERNANDEZ RIVERA, Javier ; AMORES FERNANDEZ, Judith</creatorcontrib><description>A technique for providing multi-sensory content receives input information that expresses a physiological state and experienced emotional state of a user. The technique generates prompt information that describes at least an objective of guidance to be delivered and the input information. The technique maps the prompt information to output information using a pattern completion component. The output information contains control instructions for controlling an output system to deliver the guidance via generated content. In some implementations, the pattern completion component is a machine-trained pattern completion model. In some implementations, a reward-driven machine-trained model further processes the input information and/or the output information. The reward-driven machine-trained model is trained by reinforcement learning to promote the objective of the guidance. In other implementations, the reward-driven machine-trained model operates by itself, without the pattern completion component.
L'invention concerne une technique pour la fourniture d'un contenu multisensoriel, qui reçoit des informations d'entrée qui expriment un état physiologique et un état émotionnel éprouvé d'un utilisateur. La technique génère des informations d'invite qui décrivent au moins un objectif de guidage devant être émis et les informations d'entrée. La technique met en correspondance les informations d'invite avec des informations de sortie à l'aide d'un composant de réalisation de motif. Les informations de sortie contiennent des instructions de commande pour la commande d'un système de sortie pour émettre le guidage par l'intermédiaire d'un contenu généré. Dans certains modes de réalisation, le composant de réalisation de motif est un modèle de réalisation de motif entraîné par machine. Dans certains modes de réalisation, un modèle entraîné par machine à pilotage par récompense traite en outre les informations d'entrée et/ou les informations de sortie. Le modèle entraîné par machine à pilotage par récompense est entraîné par apprentissage par renforcement pour favoriser l'objectif du guidage. Dans d'autres modes de réalisation, le modèle entraîné par machine à pilotage par récompense fonctionne de lui-même, sans le composant de réalisation de motif.</description><language>eng ; fre</language><subject>ACOUSTICS ; ARRANGEMENTS OR ADAPTATIONS OF HEATING, COOLING, VENTILATING,OR OTHER AIR-TREATING DEVICES SPECIALLY FOR PASSENGER OR GOODSSPACES OF VEHICLES ; CALCULATING ; COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS ; COMPUTING ; COUNTING ; DIAGNOSIS ; ELECTRIC DIGITAL DATA PROCESSING ; ELECTRIC HEATING ; ELECTRIC LIGHTING NOT OTHERWISE PROVIDED FOR ; ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR ; ELECTRICITY ; HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATIONTECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING ORPROCESSING OF MEDICAL OR HEALTHCARE DATA ; HUMAN NECESSITIES ; HYGIENE ; IDENTIFICATION ; INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTEDFOR SPECIFIC APPLICATION FIELDS ; MEDICAL OR VETERINARY SCIENCE ; MUSICAL INSTRUMENTS ; PERFORMING OPERATIONS ; PHYSICS ; SPEECH ANALYSIS OR SYNTHESIS ; SPEECH OR AUDIO CODING OR DECODING ; SPEECH OR VOICE PROCESSING ; SPEECH RECOGNITION ; SURGERY ; TRANSPORTING ; VEHICLES IN GENERAL</subject><creationdate>2024</creationdate><oa>free_for_read</oa><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><linktohtml>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&date=20240906&DB=EPODOC&CC=WO&NR=2024182162A1$$EHTML$$P50$$Gepo$$Hfree_for_read</linktohtml><link.rule.ids>230,308,780,885,25564,76547</link.rule.ids><linktorsrc>$$Uhttps://worldwide.espacenet.com/publicationDetails/biblio?FT=D&date=20240906&DB=EPODOC&CC=WO&NR=2024182162A1$$EView_record_in_European_Patent_Office$$FView_record_in_$$GEuropean_Patent_Office$$Hfree_for_read</linktorsrc></links><search><creatorcontrib>PATRICIA CZERWINSKI, Mary</creatorcontrib><creatorcontrib>HERNANDEZ RIVERA, Javier</creatorcontrib><creatorcontrib>AMORES FERNANDEZ, Judith</creatorcontrib><title>GENERATING MULTI-SENSORY CONTENT BASED ON USER STATE</title><description>A technique for providing multi-sensory content receives input information that expresses a physiological state and experienced emotional state of a user. The technique generates prompt information that describes at least an objective of guidance to be delivered and the input information. The technique maps the prompt information to output information using a pattern completion component. The output information contains control instructions for controlling an output system to deliver the guidance via generated content. In some implementations, the pattern completion component is a machine-trained pattern completion model. In some implementations, a reward-driven machine-trained model further processes the input information and/or the output information. The reward-driven machine-trained model is trained by reinforcement learning to promote the objective of the guidance. In other implementations, the reward-driven machine-trained model operates by itself, without the pattern completion component.
L'invention concerne une technique pour la fourniture d'un contenu multisensoriel, qui reçoit des informations d'entrée qui expriment un état physiologique et un état émotionnel éprouvé d'un utilisateur. La technique génère des informations d'invite qui décrivent au moins un objectif de guidage devant être émis et les informations d'entrée. La technique met en correspondance les informations d'invite avec des informations de sortie à l'aide d'un composant de réalisation de motif. Les informations de sortie contiennent des instructions de commande pour la commande d'un système de sortie pour émettre le guidage par l'intermédiaire d'un contenu généré. Dans certains modes de réalisation, le composant de réalisation de motif est un modèle de réalisation de motif entraîné par machine. Dans certains modes de réalisation, un modèle entraîné par machine à pilotage par récompense traite en outre les informations d'entrée et/ou les informations de sortie. Le modèle entraîné par machine à pilotage par récompense est entraîné par apprentissage par renforcement pour favoriser l'objectif du guidage. Dans d'autres modes de réalisation, le modèle entraîné par machine à pilotage par récompense fonctionne de lui-même, sans le composant de réalisation de motif.</description><subject>ACOUSTICS</subject><subject>ARRANGEMENTS OR ADAPTATIONS OF HEATING, COOLING, VENTILATING,OR OTHER AIR-TREATING DEVICES SPECIALLY FOR PASSENGER OR GOODSSPACES OF VEHICLES</subject><subject>CALCULATING</subject><subject>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</subject><subject>COMPUTING</subject><subject>COUNTING</subject><subject>DIAGNOSIS</subject><subject>ELECTRIC DIGITAL DATA PROCESSING</subject><subject>ELECTRIC HEATING</subject><subject>ELECTRIC LIGHTING NOT OTHERWISE PROVIDED FOR</subject><subject>ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR</subject><subject>ELECTRICITY</subject><subject>HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATIONTECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING ORPROCESSING OF MEDICAL OR HEALTHCARE DATA</subject><subject>HUMAN NECESSITIES</subject><subject>HYGIENE</subject><subject>IDENTIFICATION</subject><subject>INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTEDFOR SPECIFIC APPLICATION FIELDS</subject><subject>MEDICAL OR VETERINARY SCIENCE</subject><subject>MUSICAL INSTRUMENTS</subject><subject>PERFORMING OPERATIONS</subject><subject>PHYSICS</subject><subject>SPEECH ANALYSIS OR SYNTHESIS</subject><subject>SPEECH OR AUDIO CODING OR DECODING</subject><subject>SPEECH OR VOICE PROCESSING</subject><subject>SPEECH RECOGNITION</subject><subject>SURGERY</subject><subject>TRANSPORTING</subject><subject>VEHICLES IN GENERAL</subject><fulltext>true</fulltext><rsrctype>patent</rsrctype><creationdate>2024</creationdate><recordtype>patent</recordtype><sourceid>EVB</sourceid><recordid>eNrjZDBxd_VzDXIM8fRzV_AN9Qnx1A129Qv2D4pUcPb3C3H1C1Fwcgx2dVHw91MIDXYNUggOcQxx5WFgTUvMKU7lhdLcDMpuriHOHrqpBfnxqcUFicmpeakl8eH-RgZGJoYWRoZmRo6GxsSpAgB4iyhp</recordid><startdate>20240906</startdate><enddate>20240906</enddate><creator>PATRICIA CZERWINSKI, Mary</creator><creator>HERNANDEZ RIVERA, Javier</creator><creator>AMORES FERNANDEZ, Judith</creator><scope>EVB</scope></search><sort><creationdate>20240906</creationdate><title>GENERATING MULTI-SENSORY CONTENT BASED ON USER STATE</title><author>PATRICIA CZERWINSKI, Mary ; HERNANDEZ RIVERA, Javier ; AMORES FERNANDEZ, Judith</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-epo_espacenet_WO2024182162A13</frbrgroupid><rsrctype>patents</rsrctype><prefilter>patents</prefilter><language>eng ; fre</language><creationdate>2024</creationdate><topic>ACOUSTICS</topic><topic>ARRANGEMENTS OR ADAPTATIONS OF HEATING, COOLING, VENTILATING,OR OTHER AIR-TREATING DEVICES SPECIALLY FOR PASSENGER OR GOODSSPACES OF VEHICLES</topic><topic>CALCULATING</topic><topic>COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS</topic><topic>COMPUTING</topic><topic>COUNTING</topic><topic>DIAGNOSIS</topic><topic>ELECTRIC DIGITAL DATA PROCESSING</topic><topic>ELECTRIC HEATING</topic><topic>ELECTRIC LIGHTING NOT OTHERWISE PROVIDED FOR</topic><topic>ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR</topic><topic>ELECTRICITY</topic><topic>HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATIONTECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING ORPROCESSING OF MEDICAL OR HEALTHCARE DATA</topic><topic>HUMAN NECESSITIES</topic><topic>HYGIENE</topic><topic>IDENTIFICATION</topic><topic>INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTEDFOR SPECIFIC APPLICATION FIELDS</topic><topic>MEDICAL OR VETERINARY SCIENCE</topic><topic>MUSICAL INSTRUMENTS</topic><topic>PERFORMING OPERATIONS</topic><topic>PHYSICS</topic><topic>SPEECH ANALYSIS OR SYNTHESIS</topic><topic>SPEECH OR AUDIO CODING OR DECODING</topic><topic>SPEECH OR VOICE PROCESSING</topic><topic>SPEECH RECOGNITION</topic><topic>SURGERY</topic><topic>TRANSPORTING</topic><topic>VEHICLES IN GENERAL</topic><toplevel>online_resources</toplevel><creatorcontrib>PATRICIA CZERWINSKI, Mary</creatorcontrib><creatorcontrib>HERNANDEZ RIVERA, Javier</creatorcontrib><creatorcontrib>AMORES FERNANDEZ, Judith</creatorcontrib><collection>esp@cenet</collection></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext_linktorsrc</fulltext></delivery><addata><au>PATRICIA CZERWINSKI, Mary</au><au>HERNANDEZ RIVERA, Javier</au><au>AMORES FERNANDEZ, Judith</au><format>patent</format><genre>patent</genre><ristype>GEN</ristype><title>GENERATING MULTI-SENSORY CONTENT BASED ON USER STATE</title><date>2024-09-06</date><risdate>2024</risdate><abstract>A technique for providing multi-sensory content receives input information that expresses a physiological state and experienced emotional state of a user. The technique generates prompt information that describes at least an objective of guidance to be delivered and the input information. The technique maps the prompt information to output information using a pattern completion component. The output information contains control instructions for controlling an output system to deliver the guidance via generated content. In some implementations, the pattern completion component is a machine-trained pattern completion model. In some implementations, a reward-driven machine-trained model further processes the input information and/or the output information. The reward-driven machine-trained model is trained by reinforcement learning to promote the objective of the guidance. In other implementations, the reward-driven machine-trained model operates by itself, without the pattern completion component.
L'invention concerne une technique pour la fourniture d'un contenu multisensoriel, qui reçoit des informations d'entrée qui expriment un état physiologique et un état émotionnel éprouvé d'un utilisateur. La technique génère des informations d'invite qui décrivent au moins un objectif de guidage devant être émis et les informations d'entrée. La technique met en correspondance les informations d'invite avec des informations de sortie à l'aide d'un composant de réalisation de motif. Les informations de sortie contiennent des instructions de commande pour la commande d'un système de sortie pour émettre le guidage par l'intermédiaire d'un contenu généré. Dans certains modes de réalisation, le composant de réalisation de motif est un modèle de réalisation de motif entraîné par machine. Dans certains modes de réalisation, un modèle entraîné par machine à pilotage par récompense traite en outre les informations d'entrée et/ou les informations de sortie. Le modèle entraîné par machine à pilotage par récompense est entraîné par apprentissage par renforcement pour favoriser l'objectif du guidage. Dans d'autres modes de réalisation, le modèle entraîné par machine à pilotage par récompense fonctionne de lui-même, sans le composant de réalisation de motif.</abstract><oa>free_for_read</oa></addata></record> |
fulltext | fulltext_linktorsrc |
identifier | |
ispartof | |
issn | |
language | eng ; fre |
recordid | cdi_epo_espacenet_WO2024182162A1 |
source | esp@cenet |
subjects | ACOUSTICS ARRANGEMENTS OR ADAPTATIONS OF HEATING, COOLING, VENTILATING,OR OTHER AIR-TREATING DEVICES SPECIALLY FOR PASSENGER OR GOODSSPACES OF VEHICLES CALCULATING COMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS COMPUTING COUNTING DIAGNOSIS ELECTRIC DIGITAL DATA PROCESSING ELECTRIC HEATING ELECTRIC LIGHTING NOT OTHERWISE PROVIDED FOR ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR ELECTRICITY HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATIONTECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING ORPROCESSING OF MEDICAL OR HEALTHCARE DATA HUMAN NECESSITIES HYGIENE IDENTIFICATION INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTEDFOR SPECIFIC APPLICATION FIELDS MEDICAL OR VETERINARY SCIENCE MUSICAL INSTRUMENTS PERFORMING OPERATIONS PHYSICS SPEECH ANALYSIS OR SYNTHESIS SPEECH OR AUDIO CODING OR DECODING SPEECH OR VOICE PROCESSING SPEECH RECOGNITION SURGERY TRANSPORTING VEHICLES IN GENERAL |
title | GENERATING MULTI-SENSORY CONTENT BASED ON USER STATE |
url | https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2024-12-25T22%3A46%3A15IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-epo_EVB&rft_val_fmt=info:ofi/fmt:kev:mtx:patent&rft.genre=patent&rft.au=PATRICIA%20CZERWINSKI,%20Mary&rft.date=2024-09-06&rft_id=info:doi/&rft_dat=%3Cepo_EVB%3EWO2024182162A1%3C/epo_EVB%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rfr_iscdi=true |