融合子空间共享特征的多尺度跨模态行人重识别方法
TN911.73%TP391.4; 跨模态行人重识别(Re-ID)是智能监控系统所面临的一项具有很大挑战的问题,现有的跨模态研究方法中主要基于全局或局部学习表示有区别的模态共享特征.然而,很少有研究尝试融合全局与局部的特征表示.该文提出一种新的多粒度共享特征融合(MSFF)网络,该网络结合了全局和局部特征来学习两种模态的不同粒度表示,从骨干网络中提取多尺度、多层次的特征,全局特征表示的粗粒度信息与局部特征表示的细粒度信息相互协同,形成更具有区别度的特征描述符.此外,为使网络能够提取更有效的共享特征,该文还针对网络中的两种模态的嵌入模式提出了子空间共享特征模块的改进方法,改变传统模态特征权重的特...
Gespeichert in:
Veröffentlicht in: | 电子与信息学报 2023, Vol.45 (1), p.325-334 |
---|---|
Hauptverfasser: | , , , , |
Format: | Artikel |
Sprache: | chi |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
container_end_page | 334 |
---|---|
container_issue | 1 |
container_start_page | 325 |
container_title | 电子与信息学报 |
container_volume | 45 |
creator | 王凤随 闫涛 刘芙蓉 钱亚萍 许月 |
description | TN911.73%TP391.4; 跨模态行人重识别(Re-ID)是智能监控系统所面临的一项具有很大挑战的问题,现有的跨模态研究方法中主要基于全局或局部学习表示有区别的模态共享特征.然而,很少有研究尝试融合全局与局部的特征表示.该文提出一种新的多粒度共享特征融合(MSFF)网络,该网络结合了全局和局部特征来学习两种模态的不同粒度表示,从骨干网络中提取多尺度、多层次的特征,全局特征表示的粗粒度信息与局部特征表示的细粒度信息相互协同,形成更具有区别度的特征描述符.此外,为使网络能够提取更有效的共享特征,该文还针对网络中的两种模态的嵌入模式提出了子空间共享特征模块的改进方法,改变传统模态特征权重的特征嵌入方式.将该模块提前放入骨干网络中,使两种模态的各自特征映射到同一子空间中,经过骨干网络产生更丰富的共享权值.在两个公共数据集实验结果证明了所提方法的有效性,SYSU-MM01数据集最困难全搜索单镜头模式下平均精度mAP达到了60.62%. |
doi_str_mv | 10.11999/JEIT211212 |
format | Article |
fullrecord | <record><control><sourceid>wanfang_jour</sourceid><recordid>TN_cdi_wanfang_journals_dzkxxk202301035</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><wanfj_id>dzkxxk202301035</wanfj_id><sourcerecordid>dzkxxk202301035</sourcerecordid><originalsourceid>FETCH-LOGICAL-s1025-fff7c39aafbf5ed4ec5e29eaf95f2fbfa2ea3f382ff25bc84fa25be7b0ceb72b3</originalsourceid><addsrcrecordid>eNpjYBA2NNAzNLS0tNT3cvUMMTI0NDI0YmHgNDQwsNQ1tbA042DgLS7OTDIwMjY0MzcwMOZkcH0xr_fphI6nayc8X7nr5fQtT1s3Ptm1-nnnzqf7Gp_Panm6ZNbTDbue7lr2YvuKZysWPmtofLGw58muXS_be1-sb3vasfrZtJ3PNk_lYWBNS8wpTuWF0twMoW6uIc4euj7-7p7Ojj66xYYGRqa6aWlp5snGlomJaUlppqkpJqnJpqlGlqmJaZamaUZAsUSj1ETjNGMLo7Q0I9OkZAsToIhpUqp5kkFyapK5UZIxN4M6xNzyxLy0xLz0-Kz80qI8oI3xKVXZFRXZRkCfGRgaGJsaAwBdCGb4</addsrcrecordid><sourcetype>Aggregation Database</sourcetype><iscdi>true</iscdi><recordtype>article</recordtype></control><display><type>article</type><title>融合子空间共享特征的多尺度跨模态行人重识别方法</title><source>Alma/SFX Local Collection</source><creator>王凤随 ; 闫涛 ; 刘芙蓉 ; 钱亚萍 ; 许月</creator><creatorcontrib>王凤随 ; 闫涛 ; 刘芙蓉 ; 钱亚萍 ; 许月</creatorcontrib><description>TN911.73%TP391.4; 跨模态行人重识别(Re-ID)是智能监控系统所面临的一项具有很大挑战的问题,现有的跨模态研究方法中主要基于全局或局部学习表示有区别的模态共享特征.然而,很少有研究尝试融合全局与局部的特征表示.该文提出一种新的多粒度共享特征融合(MSFF)网络,该网络结合了全局和局部特征来学习两种模态的不同粒度表示,从骨干网络中提取多尺度、多层次的特征,全局特征表示的粗粒度信息与局部特征表示的细粒度信息相互协同,形成更具有区别度的特征描述符.此外,为使网络能够提取更有效的共享特征,该文还针对网络中的两种模态的嵌入模式提出了子空间共享特征模块的改进方法,改变传统模态特征权重的特征嵌入方式.将该模块提前放入骨干网络中,使两种模态的各自特征映射到同一子空间中,经过骨干网络产生更丰富的共享权值.在两个公共数据集实验结果证明了所提方法的有效性,SYSU-MM01数据集最困难全搜索单镜头模式下平均精度mAP达到了60.62%.</description><identifier>ISSN: 1009-5896</identifier><identifier>DOI: 10.11999/JEIT211212</identifier><language>chi</language><publisher>安徽工程大学电气工程学院 芜湖 241000</publisher><ispartof>电子与信息学报, 2023, Vol.45 (1), p.325-334</ispartof><rights>Copyright © Wanfang Data Co. Ltd. All Rights Reserved.</rights><lds50>peer_reviewed</lds50><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Uhttp://www.wanfangdata.com.cn/images/PeriodicalImages/dzkxxk/dzkxxk.jpg</thumbnail><link.rule.ids>314,780,784,4024,27923,27924,27925</link.rule.ids></links><search><creatorcontrib>王凤随</creatorcontrib><creatorcontrib>闫涛</creatorcontrib><creatorcontrib>刘芙蓉</creatorcontrib><creatorcontrib>钱亚萍</creatorcontrib><creatorcontrib>许月</creatorcontrib><title>融合子空间共享特征的多尺度跨模态行人重识别方法</title><title>电子与信息学报</title><description>TN911.73%TP391.4; 跨模态行人重识别(Re-ID)是智能监控系统所面临的一项具有很大挑战的问题,现有的跨模态研究方法中主要基于全局或局部学习表示有区别的模态共享特征.然而,很少有研究尝试融合全局与局部的特征表示.该文提出一种新的多粒度共享特征融合(MSFF)网络,该网络结合了全局和局部特征来学习两种模态的不同粒度表示,从骨干网络中提取多尺度、多层次的特征,全局特征表示的粗粒度信息与局部特征表示的细粒度信息相互协同,形成更具有区别度的特征描述符.此外,为使网络能够提取更有效的共享特征,该文还针对网络中的两种模态的嵌入模式提出了子空间共享特征模块的改进方法,改变传统模态特征权重的特征嵌入方式.将该模块提前放入骨干网络中,使两种模态的各自特征映射到同一子空间中,经过骨干网络产生更丰富的共享权值.在两个公共数据集实验结果证明了所提方法的有效性,SYSU-MM01数据集最困难全搜索单镜头模式下平均精度mAP达到了60.62%.</description><issn>1009-5896</issn><fulltext>true</fulltext><rsrctype>article</rsrctype><creationdate>2023</creationdate><recordtype>article</recordtype><recordid>eNpjYBA2NNAzNLS0tNT3cvUMMTI0NDI0YmHgNDQwsNQ1tbA042DgLS7OTDIwMjY0MzcwMOZkcH0xr_fphI6nayc8X7nr5fQtT1s3Ptm1-nnnzqf7Gp_Panm6ZNbTDbue7lr2YvuKZysWPmtofLGw58muXS_be1-sb3vasfrZtJ3PNk_lYWBNS8wpTuWF0twMoW6uIc4euj7-7p7Ojj66xYYGRqa6aWlp5snGlomJaUlppqkpJqnJpqlGlqmJaZamaUZAsUSj1ETjNGMLo7Q0I9OkZAsToIhpUqp5kkFyapK5UZIxN4M6xNzyxLy0xLz0-Kz80qI8oI3xKVXZFRXZRkCfGRgaGJsaAwBdCGb4</recordid><startdate>2023</startdate><enddate>2023</enddate><creator>王凤随</creator><creator>闫涛</creator><creator>刘芙蓉</creator><creator>钱亚萍</creator><creator>许月</creator><general>安徽工程大学电气工程学院 芜湖 241000</general><general>检测技术与节能装置安徽省重点实验室 芜湖 241000</general><general>高端装备先进感知与智能控制教育部重点实验室 芜湖 241000</general><scope>2B.</scope><scope>4A8</scope><scope>92I</scope><scope>93N</scope><scope>PSX</scope><scope>TCJ</scope></search><sort><creationdate>2023</creationdate><title>融合子空间共享特征的多尺度跨模态行人重识别方法</title><author>王凤随 ; 闫涛 ; 刘芙蓉 ; 钱亚萍 ; 许月</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-LOGICAL-s1025-fff7c39aafbf5ed4ec5e29eaf95f2fbfa2ea3f382ff25bc84fa25be7b0ceb72b3</frbrgroupid><rsrctype>articles</rsrctype><prefilter>articles</prefilter><language>chi</language><creationdate>2023</creationdate><toplevel>peer_reviewed</toplevel><toplevel>online_resources</toplevel><creatorcontrib>王凤随</creatorcontrib><creatorcontrib>闫涛</creatorcontrib><creatorcontrib>刘芙蓉</creatorcontrib><creatorcontrib>钱亚萍</creatorcontrib><creatorcontrib>许月</creatorcontrib><collection>Wanfang Data Journals - Hong Kong</collection><collection>WANFANG Data Centre</collection><collection>Wanfang Data Journals</collection><collection>万方数据期刊 - 香港版</collection><collection>China Online Journals (COJ)</collection><collection>China Online Journals (COJ)</collection><jtitle>电子与信息学报</jtitle></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext</fulltext></delivery><addata><au>王凤随</au><au>闫涛</au><au>刘芙蓉</au><au>钱亚萍</au><au>许月</au><format>journal</format><genre>article</genre><ristype>JOUR</ristype><atitle>融合子空间共享特征的多尺度跨模态行人重识别方法</atitle><jtitle>电子与信息学报</jtitle><date>2023</date><risdate>2023</risdate><volume>45</volume><issue>1</issue><spage>325</spage><epage>334</epage><pages>325-334</pages><issn>1009-5896</issn><abstract>TN911.73%TP391.4; 跨模态行人重识别(Re-ID)是智能监控系统所面临的一项具有很大挑战的问题,现有的跨模态研究方法中主要基于全局或局部学习表示有区别的模态共享特征.然而,很少有研究尝试融合全局与局部的特征表示.该文提出一种新的多粒度共享特征融合(MSFF)网络,该网络结合了全局和局部特征来学习两种模态的不同粒度表示,从骨干网络中提取多尺度、多层次的特征,全局特征表示的粗粒度信息与局部特征表示的细粒度信息相互协同,形成更具有区别度的特征描述符.此外,为使网络能够提取更有效的共享特征,该文还针对网络中的两种模态的嵌入模式提出了子空间共享特征模块的改进方法,改变传统模态特征权重的特征嵌入方式.将该模块提前放入骨干网络中,使两种模态的各自特征映射到同一子空间中,经过骨干网络产生更丰富的共享权值.在两个公共数据集实验结果证明了所提方法的有效性,SYSU-MM01数据集最困难全搜索单镜头模式下平均精度mAP达到了60.62%.</abstract><pub>安徽工程大学电气工程学院 芜湖 241000</pub><doi>10.11999/JEIT211212</doi><tpages>10</tpages></addata></record> |
fulltext | fulltext |
identifier | ISSN: 1009-5896 |
ispartof | 电子与信息学报, 2023, Vol.45 (1), p.325-334 |
issn | 1009-5896 |
language | chi |
recordid | cdi_wanfang_journals_dzkxxk202301035 |
source | Alma/SFX Local Collection |
title | 融合子空间共享特征的多尺度跨模态行人重识别方法 |
url | https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2024-12-21T09%3A28%3A54IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-wanfang_jour&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.genre=article&rft.atitle=%E8%9E%8D%E5%90%88%E5%AD%90%E7%A9%BA%E9%97%B4%E5%85%B1%E4%BA%AB%E7%89%B9%E5%BE%81%E7%9A%84%E5%A4%9A%E5%B0%BA%E5%BA%A6%E8%B7%A8%E6%A8%A1%E6%80%81%E8%A1%8C%E4%BA%BA%E9%87%8D%E8%AF%86%E5%88%AB%E6%96%B9%E6%B3%95&rft.jtitle=%E7%94%B5%E5%AD%90%E4%B8%8E%E4%BF%A1%E6%81%AF%E5%AD%A6%E6%8A%A5&rft.au=%E7%8E%8B%E5%87%A4%E9%9A%8F&rft.date=2023&rft.volume=45&rft.issue=1&rft.spage=325&rft.epage=334&rft.pages=325-334&rft.issn=1009-5896&rft_id=info:doi/10.11999/JEIT211212&rft_dat=%3Cwanfang_jour%3Edzkxxk202301035%3C/wanfang_jour%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rft_wanfj_id=dzkxxk202301035&rfr_iscdi=true |