Régles d’associations temporelles de signaux sociaux pour la synthése d’agents conversationnels animés. Application aux attitudes sociales
Afin d’améliorer l’interaction entre des humains et des agents conversationnels animés (ACA), l’un des enjeux majeurs du domaine est de générer des agents crédibles socialement. Dans cet article, nous présentons une méthode, intitulée SMART (social multimodal association rules with timing), capable...
Gespeichert in:
Veröffentlicht in: | Revue d'Intelligence Artificielle 2017-10, Vol.31 (5), p.511-536 |
---|---|
Hauptverfasser: | , , , |
Format: | Artikel |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
container_end_page | 536 |
---|---|
container_issue | 5 |
container_start_page | 511 |
container_title | Revue d'Intelligence Artificielle |
container_volume | 31 |
creator | JANSSOONE, Thomas CLAVEL, Chloé BAILLY, Kévin RICHARD, Gaël |
description | Afin d’améliorer l’interaction entre des humains et des agents conversationnels animés (ACA), l’un des enjeux majeurs du domaine est de générer des agents crédibles socialement. Dans cet article, nous présentons une méthode, intitulée SMART (social multimodal association rules with timing), capable de trouver automatiquement des associations temporelles entre l’utilisation de signaux sociaux (mouvements de tête, expressions faciales, prosodie...) issues de vidéos d’interactions d’humains exprimant différents états affectifs (comportement, attitude, émotions,...). Notre système est basé sur un algorithme de fouille de séquences qui lui permet de trouver des règles d’associations temporelles entre des signaux sociaux extraits automatiquement de flux audio-vidéo. SMART va également analyser le lien de ces règles avec chaque état affectif pour ne conserver que celles qui sont pertinentes. Finalement, SMART va les enrichir afin d’assurer une animation facile d’un ACA pour qu’il exprime l’état voulu. Dans ce papier, nous formalisons l’implémentation de SMART et nous justifions son intérêt par plusieurs études. Dans un premier temps, nous montrons que les règles calculées sont en accord avec la littérature en psychologie et sociologie. Ensuite, nous présentons les résultats d’évaluations perceptives que nous avons conduites suite à des études de corpus proposant l’expression d’attitudes sociales marquées. In the field of Embodied Conversational Agent (ECA) one of the main challenges is to generate socially believable agents. The long run objective of the present study is to infer rules for the multimodal generation of agents’ socio-emotional behaviour. In this paper, we intro- duce the Social Multimodal Association Rules with Timing (SMART) algorithm. It proposes to learn the rules from the analysis of a multimodal corpus composed by audio-video recordings of human-human interactions. The proposed methodology consists in applying a Sequence Mi- ning algorithm using automatically extracted Social Signals such as prosody, head movements and facial muscles activation as an input. This allows us to infer Temporal Association Rules for the behaviour generation. We show that this method can automatically compute Temporal Association Rules coherent with prior results found in the literature especially in the psychology and sociology fields. The results of a perceptive evaluation confirms the ability of a Temporal Association Rules based agent to express a specific stanc |
doi_str_mv | 10.3166/ria.31.511-536 |
format | Article |
fullrecord | <record><control><sourceid>proquest_cross</sourceid><recordid>TN_cdi_proquest_journals_2167294362</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><sourcerecordid>2167294362</sourcerecordid><originalsourceid>FETCH-LOGICAL-c672-c6b5b91c1d5943b86eca0b29666ffcc72def1210799d525a130774885166efc23</originalsourceid><addsrcrecordid>eNotkE1OwzAQRi0EElXplrUl1gmxEzvxsqr4kyohIRbsLMdxilHqBI-L6I4rsOQIPUdvwklwUzaekebT--SH0CXJ0pxwfu2tikvKCElYzk_QhAhWJawsqlM0yYSgSSHEyzmaAdg6KzinOS-yCfp-2u9WnQHc_H79KIBeWxVs7wAHsx56b7rxaDDYlVObTzwm4hz6jcedwrB14XW_A3MkrIwLgHXvPoyHkeRMB1g5u46hFM-HobN6POADRoVgw6aJHSM4ll2gs1Z1YGb_c4qeb2-eF_fJ8vHuYTFfJpqXND41qwXRpGGiyOuKG62ymgrOedtqXdLGtISSrBSiYZQpkmdllFGxKMu0muZTdHXEDr5_3xgI8i3-yMVGSUlsiFR-SKXHlPY9gDetHLxdK7-VJJMH8TKKj4uM4mUUn_8Bji5-Tg</addsrcrecordid><sourcetype>Aggregation Database</sourcetype><iscdi>true</iscdi><recordtype>article</recordtype><pqid>2167294362</pqid></control><display><type>article</type><title>Régles d’associations temporelles de signaux sociaux pour la synthése d’agents conversationnels animés. Application aux attitudes sociales</title><source>EZB-FREE-00999 freely available EZB journals</source><creator>JANSSOONE, Thomas ; CLAVEL, Chloé ; BAILLY, Kévin ; RICHARD, Gaël</creator><creatorcontrib>JANSSOONE, Thomas ; CLAVEL, Chloé ; BAILLY, Kévin ; RICHARD, Gaël</creatorcontrib><description>Afin d’améliorer l’interaction entre des humains et des agents conversationnels animés (ACA), l’un des enjeux majeurs du domaine est de générer des agents crédibles socialement. Dans cet article, nous présentons une méthode, intitulée SMART (social multimodal association rules with timing), capable de trouver automatiquement des associations temporelles entre l’utilisation de signaux sociaux (mouvements de tête, expressions faciales, prosodie...) issues de vidéos d’interactions d’humains exprimant différents états affectifs (comportement, attitude, émotions,...). Notre système est basé sur un algorithme de fouille de séquences qui lui permet de trouver des règles d’associations temporelles entre des signaux sociaux extraits automatiquement de flux audio-vidéo. SMART va également analyser le lien de ces règles avec chaque état affectif pour ne conserver que celles qui sont pertinentes. Finalement, SMART va les enrichir afin d’assurer une animation facile d’un ACA pour qu’il exprime l’état voulu. Dans ce papier, nous formalisons l’implémentation de SMART et nous justifions son intérêt par plusieurs études. Dans un premier temps, nous montrons que les règles calculées sont en accord avec la littérature en psychologie et sociologie. Ensuite, nous présentons les résultats d’évaluations perceptives que nous avons conduites suite à des études de corpus proposant l’expression d’attitudes sociales marquées. In the field of Embodied Conversational Agent (ECA) one of the main challenges is to generate socially believable agents. The long run objective of the present study is to infer rules for the multimodal generation of agents’ socio-emotional behaviour. In this paper, we intro- duce the Social Multimodal Association Rules with Timing (SMART) algorithm. It proposes to learn the rules from the analysis of a multimodal corpus composed by audio-video recordings of human-human interactions. The proposed methodology consists in applying a Sequence Mi- ning algorithm using automatically extracted Social Signals such as prosody, head movements and facial muscles activation as an input. This allows us to infer Temporal Association Rules for the behaviour generation. We show that this method can automatically compute Temporal Association Rules coherent with prior results found in the literature especially in the psychology and sociology fields. The results of a perceptive evaluation confirms the ability of a Temporal Association Rules based agent to express a specific stance.</description><identifier>ISSN: 0992-499X</identifier><identifier>EISSN: 1958-5748</identifier><identifier>DOI: 10.3166/ria.31.511-536</identifier><language>eng ; fre</language><publisher>Edmonton: International Information and Engineering Technology Association (IIETA)</publisher><subject>Algorithms ; Animation ; Attitudes ; Head ; Head movement ; Muscles ; Psychology ; Sociology</subject><ispartof>Revue d'Intelligence Artificielle, 2017-10, Vol.31 (5), p.511-536</ispartof><rights>Copyright Lavoisier 2017</rights><lds50>peer_reviewed</lds50><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Tsyndetics_thumb_exl</thumbnail><link.rule.ids>314,780,784,27924,27925</link.rule.ids></links><search><creatorcontrib>JANSSOONE, Thomas</creatorcontrib><creatorcontrib>CLAVEL, Chloé</creatorcontrib><creatorcontrib>BAILLY, Kévin</creatorcontrib><creatorcontrib>RICHARD, Gaël</creatorcontrib><title>Régles d’associations temporelles de signaux sociaux pour la synthése d’agents conversationnels animés. Application aux attitudes sociales</title><title>Revue d'Intelligence Artificielle</title><description>Afin d’améliorer l’interaction entre des humains et des agents conversationnels animés (ACA), l’un des enjeux majeurs du domaine est de générer des agents crédibles socialement. Dans cet article, nous présentons une méthode, intitulée SMART (social multimodal association rules with timing), capable de trouver automatiquement des associations temporelles entre l’utilisation de signaux sociaux (mouvements de tête, expressions faciales, prosodie...) issues de vidéos d’interactions d’humains exprimant différents états affectifs (comportement, attitude, émotions,...). Notre système est basé sur un algorithme de fouille de séquences qui lui permet de trouver des règles d’associations temporelles entre des signaux sociaux extraits automatiquement de flux audio-vidéo. SMART va également analyser le lien de ces règles avec chaque état affectif pour ne conserver que celles qui sont pertinentes. Finalement, SMART va les enrichir afin d’assurer une animation facile d’un ACA pour qu’il exprime l’état voulu. Dans ce papier, nous formalisons l’implémentation de SMART et nous justifions son intérêt par plusieurs études. Dans un premier temps, nous montrons que les règles calculées sont en accord avec la littérature en psychologie et sociologie. Ensuite, nous présentons les résultats d’évaluations perceptives que nous avons conduites suite à des études de corpus proposant l’expression d’attitudes sociales marquées. In the field of Embodied Conversational Agent (ECA) one of the main challenges is to generate socially believable agents. The long run objective of the present study is to infer rules for the multimodal generation of agents’ socio-emotional behaviour. In this paper, we intro- duce the Social Multimodal Association Rules with Timing (SMART) algorithm. It proposes to learn the rules from the analysis of a multimodal corpus composed by audio-video recordings of human-human interactions. The proposed methodology consists in applying a Sequence Mi- ning algorithm using automatically extracted Social Signals such as prosody, head movements and facial muscles activation as an input. This allows us to infer Temporal Association Rules for the behaviour generation. We show that this method can automatically compute Temporal Association Rules coherent with prior results found in the literature especially in the psychology and sociology fields. The results of a perceptive evaluation confirms the ability of a Temporal Association Rules based agent to express a specific stance.</description><subject>Algorithms</subject><subject>Animation</subject><subject>Attitudes</subject><subject>Head</subject><subject>Head movement</subject><subject>Muscles</subject><subject>Psychology</subject><subject>Sociology</subject><issn>0992-499X</issn><issn>1958-5748</issn><fulltext>true</fulltext><rsrctype>article</rsrctype><creationdate>2017</creationdate><recordtype>article</recordtype><sourceid>AFKRA</sourceid><sourceid>BENPR</sourceid><sourceid>CCPQU</sourceid><sourceid>DWQXO</sourceid><recordid>eNotkE1OwzAQRi0EElXplrUl1gmxEzvxsqr4kyohIRbsLMdxilHqBI-L6I4rsOQIPUdvwklwUzaekebT--SH0CXJ0pxwfu2tikvKCElYzk_QhAhWJawsqlM0yYSgSSHEyzmaAdg6KzinOS-yCfp-2u9WnQHc_H79KIBeWxVs7wAHsx56b7rxaDDYlVObTzwm4hz6jcedwrB14XW_A3MkrIwLgHXvPoyHkeRMB1g5u46hFM-HobN6POADRoVgw6aJHSM4ll2gs1Z1YGb_c4qeb2-eF_fJ8vHuYTFfJpqXND41qwXRpGGiyOuKG62ymgrOedtqXdLGtISSrBSiYZQpkmdllFGxKMu0muZTdHXEDr5_3xgI8i3-yMVGSUlsiFR-SKXHlPY9gDetHLxdK7-VJJMH8TKKj4uM4mUUn_8Bji5-Tg</recordid><startdate>20171028</startdate><enddate>20171028</enddate><creator>JANSSOONE, Thomas</creator><creator>CLAVEL, Chloé</creator><creator>BAILLY, Kévin</creator><creator>RICHARD, Gaël</creator><general>International Information and Engineering Technology Association (IIETA)</general><scope>AAYXX</scope><scope>CITATION</scope><scope>8FE</scope><scope>8FG</scope><scope>ABJCF</scope><scope>AFKRA</scope><scope>BENPR</scope><scope>BGLVJ</scope><scope>CCPQU</scope><scope>DWQXO</scope><scope>HCIFZ</scope><scope>L6V</scope><scope>M7S</scope><scope>PQEST</scope><scope>PQQKQ</scope><scope>PQUKI</scope><scope>PRINS</scope><scope>PTHSS</scope></search><sort><creationdate>20171028</creationdate><title>Régles d’associations temporelles de signaux sociaux pour la synthése d’agents conversationnels animés. Application aux attitudes sociales</title><author>JANSSOONE, Thomas ; CLAVEL, Chloé ; BAILLY, Kévin ; RICHARD, Gaël</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-LOGICAL-c672-c6b5b91c1d5943b86eca0b29666ffcc72def1210799d525a130774885166efc23</frbrgroupid><rsrctype>articles</rsrctype><prefilter>articles</prefilter><language>eng ; fre</language><creationdate>2017</creationdate><topic>Algorithms</topic><topic>Animation</topic><topic>Attitudes</topic><topic>Head</topic><topic>Head movement</topic><topic>Muscles</topic><topic>Psychology</topic><topic>Sociology</topic><toplevel>peer_reviewed</toplevel><toplevel>online_resources</toplevel><creatorcontrib>JANSSOONE, Thomas</creatorcontrib><creatorcontrib>CLAVEL, Chloé</creatorcontrib><creatorcontrib>BAILLY, Kévin</creatorcontrib><creatorcontrib>RICHARD, Gaël</creatorcontrib><collection>CrossRef</collection><collection>ProQuest SciTech Collection</collection><collection>ProQuest Technology Collection</collection><collection>Materials Science & Engineering Collection</collection><collection>ProQuest Central UK/Ireland</collection><collection>ProQuest Central</collection><collection>Technology Collection</collection><collection>ProQuest One Community College</collection><collection>ProQuest Central Korea</collection><collection>SciTech Premium Collection</collection><collection>ProQuest Engineering Collection</collection><collection>Engineering Database</collection><collection>ProQuest One Academic Eastern Edition (DO NOT USE)</collection><collection>ProQuest One Academic</collection><collection>ProQuest One Academic UKI Edition</collection><collection>ProQuest Central China</collection><collection>Engineering Collection</collection><jtitle>Revue d'Intelligence Artificielle</jtitle></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext</fulltext></delivery><addata><au>JANSSOONE, Thomas</au><au>CLAVEL, Chloé</au><au>BAILLY, Kévin</au><au>RICHARD, Gaël</au><format>journal</format><genre>article</genre><ristype>JOUR</ristype><atitle>Régles d’associations temporelles de signaux sociaux pour la synthése d’agents conversationnels animés. Application aux attitudes sociales</atitle><jtitle>Revue d'Intelligence Artificielle</jtitle><date>2017-10-28</date><risdate>2017</risdate><volume>31</volume><issue>5</issue><spage>511</spage><epage>536</epage><pages>511-536</pages><issn>0992-499X</issn><eissn>1958-5748</eissn><abstract>Afin d’améliorer l’interaction entre des humains et des agents conversationnels animés (ACA), l’un des enjeux majeurs du domaine est de générer des agents crédibles socialement. Dans cet article, nous présentons une méthode, intitulée SMART (social multimodal association rules with timing), capable de trouver automatiquement des associations temporelles entre l’utilisation de signaux sociaux (mouvements de tête, expressions faciales, prosodie...) issues de vidéos d’interactions d’humains exprimant différents états affectifs (comportement, attitude, émotions,...). Notre système est basé sur un algorithme de fouille de séquences qui lui permet de trouver des règles d’associations temporelles entre des signaux sociaux extraits automatiquement de flux audio-vidéo. SMART va également analyser le lien de ces règles avec chaque état affectif pour ne conserver que celles qui sont pertinentes. Finalement, SMART va les enrichir afin d’assurer une animation facile d’un ACA pour qu’il exprime l’état voulu. Dans ce papier, nous formalisons l’implémentation de SMART et nous justifions son intérêt par plusieurs études. Dans un premier temps, nous montrons que les règles calculées sont en accord avec la littérature en psychologie et sociologie. Ensuite, nous présentons les résultats d’évaluations perceptives que nous avons conduites suite à des études de corpus proposant l’expression d’attitudes sociales marquées. In the field of Embodied Conversational Agent (ECA) one of the main challenges is to generate socially believable agents. The long run objective of the present study is to infer rules for the multimodal generation of agents’ socio-emotional behaviour. In this paper, we intro- duce the Social Multimodal Association Rules with Timing (SMART) algorithm. It proposes to learn the rules from the analysis of a multimodal corpus composed by audio-video recordings of human-human interactions. The proposed methodology consists in applying a Sequence Mi- ning algorithm using automatically extracted Social Signals such as prosody, head movements and facial muscles activation as an input. This allows us to infer Temporal Association Rules for the behaviour generation. We show that this method can automatically compute Temporal Association Rules coherent with prior results found in the literature especially in the psychology and sociology fields. The results of a perceptive evaluation confirms the ability of a Temporal Association Rules based agent to express a specific stance.</abstract><cop>Edmonton</cop><pub>International Information and Engineering Technology Association (IIETA)</pub><doi>10.3166/ria.31.511-536</doi><tpages>26</tpages></addata></record> |
fulltext | fulltext |
identifier | ISSN: 0992-499X |
ispartof | Revue d'Intelligence Artificielle, 2017-10, Vol.31 (5), p.511-536 |
issn | 0992-499X 1958-5748 |
language | eng ; fre |
recordid | cdi_proquest_journals_2167294362 |
source | EZB-FREE-00999 freely available EZB journals |
subjects | Algorithms Animation Attitudes Head Head movement Muscles Psychology Sociology |
title | Régles d’associations temporelles de signaux sociaux pour la synthése d’agents conversationnels animés. Application aux attitudes sociales |
url | https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2024-12-18T18%3A12%3A36IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-proquest_cross&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.genre=article&rft.atitle=R%C3%A9gles%20d%E2%80%99associations%20temporelles%20de%20signaux%20sociaux%20pour%20la%20synth%C3%A9se%20d%E2%80%99agents%20conversationnels%20anim%C3%A9s.%20Application%20aux%20attitudes%20sociales&rft.jtitle=Revue%20d'Intelligence%20Artificielle&rft.au=JANSSOONE,%20Thomas&rft.date=2017-10-28&rft.volume=31&rft.issue=5&rft.spage=511&rft.epage=536&rft.pages=511-536&rft.issn=0992-499X&rft.eissn=1958-5748&rft_id=info:doi/10.3166/ria.31.511-536&rft_dat=%3Cproquest_cross%3E2167294362%3C/proquest_cross%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_pqid=2167294362&rft_id=info:pmid/&rfr_iscdi=true |