基于F3Net显著性目标检测的蝴蝶图像前背景自动分割
Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分...
Gespeichert in:
Veröffentlicht in: | 昆虫学报 2021, Vol.64 (5), p.611-617 |
---|---|
Hauptverfasser: | , , , , , |
Format: | Artikel |
Sprache: | chi |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
container_end_page | 617 |
---|---|
container_issue | 5 |
container_start_page | 611 |
container_title | 昆虫学报 |
container_volume | 64 |
creator | 黄世国 洪铭淋 张飞萍 何海洋 陈亿强 李小林 |
description | Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分割效果,其中,F3Net是更优的算法,其7个指标S测度、E测度、F测度、平均绝对误差(MAE)、精度、召回率和平均IoU值分别为0.940,0.945,0.938,0.024,0.929,0.978和0.909.迁移学习则进一步提升了F3Net的上述指标值,分别为0.961,0.964,0.963,0.013,0.965,0.967和0.938.[结论]研究结果证明结合迁移学习的F3Net算法是其中最优的分割方法.本研究提出的方法可用于野外调查中拍摄的昆虫图像的自动分割,并拓展了显著性目标检测方法的应用范围. |
doi_str_mv | 10.16380/j.kcxb.2021.05.008 |
format | Article |
fullrecord | <record><control><sourceid>wanfang_jour</sourceid><recordid>TN_cdi_wanfang_journals_kcxb202105008</recordid><sourceformat>XML</sourceformat><sourcesystem>PC</sourcesystem><wanfj_id>kcxb202105008</wanfj_id><sourcerecordid>kcxb202105008</sourcerecordid><originalsourceid>FETCH-wanfang_journals_kcxb2021050083</originalsourceid><addsrcrecordid>eNpjYJA2NNAzNDO2MNDP0stOrkjSMzIwMtQzMNUzMLBgYeA0MDE10TUzsjTjYOAtLs5MMgAKm1lYGBhzMrg8nb_rya4-N2O_1JJnM_a9mDj9WcPy57PXPVvQ_mxxw7Ot3c9ntbyYu-XF3G1PZ-972tz_tLP3RXPPs5nrX7Svetq14mlH29POTTwMrGmJOcWpvFCam0HVzTXE2UO3PDEvLTEvPT4rv7QoDygTD3IcyG0GpkAnGBOrDgDt-Vcn</addsrcrecordid><sourcetype>Aggregation Database</sourcetype><iscdi>true</iscdi><recordtype>article</recordtype></control><display><type>article</type><title>基于F3Net显著性目标检测的蝴蝶图像前背景自动分割</title><source>EZB-FREE-00999 freely available EZB journals</source><source>Alma/SFX Local Collection</source><creator>黄世国 ; 洪铭淋 ; 张飞萍 ; 何海洋 ; 陈亿强 ; 李小林</creator><creatorcontrib>黄世国 ; 洪铭淋 ; 张飞萍 ; 何海洋 ; 陈亿强 ; 李小林</creatorcontrib><description>Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分割效果,其中,F3Net是更优的算法,其7个指标S测度、E测度、F测度、平均绝对误差(MAE)、精度、召回率和平均IoU值分别为0.940,0.945,0.938,0.024,0.929,0.978和0.909.迁移学习则进一步提升了F3Net的上述指标值,分别为0.961,0.964,0.963,0.013,0.965,0.967和0.938.[结论]研究结果证明结合迁移学习的F3Net算法是其中最优的分割方法.本研究提出的方法可用于野外调查中拍摄的昆虫图像的自动分割,并拓展了显著性目标检测方法的应用范围.</description><identifier>ISSN: 0454-6296</identifier><identifier>DOI: 10.16380/j.kcxb.2021.05.008</identifier><language>chi</language><publisher>福建农林大学,智慧农林福建省高校重点实验室,福州350002%福建农林大学,智慧农林福建省高校重点实验室,福州350002%福建农林大学,生态公益林重大有害生物防控福建省高校重点实验室,福州350002</publisher><ispartof>昆虫学报, 2021, Vol.64 (5), p.611-617</ispartof><rights>Copyright © Wanfang Data Co. Ltd. All Rights Reserved.</rights><lds50>peer_reviewed</lds50><woscitedreferencessubscribed>false</woscitedreferencessubscribed></display><links><openurl>$$Topenurl_article</openurl><openurlfulltext>$$Topenurlfull_article</openurlfulltext><thumbnail>$$Uhttp://www.wanfangdata.com.cn/images/PeriodicalImages/kcxb/kcxb.jpg</thumbnail><link.rule.ids>314,780,784,4024,27923,27924,27925</link.rule.ids></links><search><creatorcontrib>黄世国</creatorcontrib><creatorcontrib>洪铭淋</creatorcontrib><creatorcontrib>张飞萍</creatorcontrib><creatorcontrib>何海洋</creatorcontrib><creatorcontrib>陈亿强</creatorcontrib><creatorcontrib>李小林</creatorcontrib><title>基于F3Net显著性目标检测的蝴蝶图像前背景自动分割</title><title>昆虫学报</title><description>Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分割效果,其中,F3Net是更优的算法,其7个指标S测度、E测度、F测度、平均绝对误差(MAE)、精度、召回率和平均IoU值分别为0.940,0.945,0.938,0.024,0.929,0.978和0.909.迁移学习则进一步提升了F3Net的上述指标值,分别为0.961,0.964,0.963,0.013,0.965,0.967和0.938.[结论]研究结果证明结合迁移学习的F3Net算法是其中最优的分割方法.本研究提出的方法可用于野外调查中拍摄的昆虫图像的自动分割,并拓展了显著性目标检测方法的应用范围.</description><issn>0454-6296</issn><fulltext>true</fulltext><rsrctype>article</rsrctype><creationdate>2021</creationdate><recordtype>article</recordtype><recordid>eNpjYJA2NNAzNDO2MNDP0stOrkjSMzIwMtQzMNUzMLBgYeA0MDE10TUzsjTjYOAtLs5MMgAKm1lYGBhzMrg8nb_rya4-N2O_1JJnM_a9mDj9WcPy57PXPVvQ_mxxw7Ot3c9ntbyYu-XF3G1PZ-972tz_tLP3RXPPs5nrX7Svetq14mlH29POTTwMrGmJOcWpvFCam0HVzTXE2UO3PDEvLTEvPT4rv7QoDygTD3IcyG0GpkAnGBOrDgDt-Vcn</recordid><startdate>2021</startdate><enddate>2021</enddate><creator>黄世国</creator><creator>洪铭淋</creator><creator>张飞萍</creator><creator>何海洋</creator><creator>陈亿强</creator><creator>李小林</creator><general>福建农林大学,智慧农林福建省高校重点实验室,福州350002%福建农林大学,智慧农林福建省高校重点实验室,福州350002%福建农林大学,生态公益林重大有害生物防控福建省高校重点实验室,福州350002</general><general>福建农林大学,生态公益林重大有害生物防控福建省高校重点实验室,福州350002</general><scope>2B.</scope><scope>4A8</scope><scope>92I</scope><scope>93N</scope><scope>PSX</scope><scope>TCJ</scope></search><sort><creationdate>2021</creationdate><title>基于F3Net显著性目标检测的蝴蝶图像前背景自动分割</title><author>黄世国 ; 洪铭淋 ; 张飞萍 ; 何海洋 ; 陈亿强 ; 李小林</author></sort><facets><frbrtype>5</frbrtype><frbrgroupid>cdi_FETCH-wanfang_journals_kcxb2021050083</frbrgroupid><rsrctype>articles</rsrctype><prefilter>articles</prefilter><language>chi</language><creationdate>2021</creationdate><toplevel>peer_reviewed</toplevel><toplevel>online_resources</toplevel><creatorcontrib>黄世国</creatorcontrib><creatorcontrib>洪铭淋</creatorcontrib><creatorcontrib>张飞萍</creatorcontrib><creatorcontrib>何海洋</creatorcontrib><creatorcontrib>陈亿强</creatorcontrib><creatorcontrib>李小林</creatorcontrib><collection>Wanfang Data Journals - Hong Kong</collection><collection>WANFANG Data Centre</collection><collection>Wanfang Data Journals</collection><collection>万方数据期刊 - 香港版</collection><collection>China Online Journals (COJ)</collection><collection>China Online Journals (COJ)</collection><jtitle>昆虫学报</jtitle></facets><delivery><delcategory>Remote Search Resource</delcategory><fulltext>fulltext</fulltext></delivery><addata><au>黄世国</au><au>洪铭淋</au><au>张飞萍</au><au>何海洋</au><au>陈亿强</au><au>李小林</au><format>journal</format><genre>article</genre><ristype>JOUR</ristype><atitle>基于F3Net显著性目标检测的蝴蝶图像前背景自动分割</atitle><jtitle>昆虫学报</jtitle><date>2021</date><risdate>2021</risdate><volume>64</volume><issue>5</issue><spage>611</spage><epage>617</epage><pages>611-617</pages><issn>0454-6296</issn><abstract>Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分割效果,其中,F3Net是更优的算法,其7个指标S测度、E测度、F测度、平均绝对误差(MAE)、精度、召回率和平均IoU值分别为0.940,0.945,0.938,0.024,0.929,0.978和0.909.迁移学习则进一步提升了F3Net的上述指标值,分别为0.961,0.964,0.963,0.013,0.965,0.967和0.938.[结论]研究结果证明结合迁移学习的F3Net算法是其中最优的分割方法.本研究提出的方法可用于野外调查中拍摄的昆虫图像的自动分割,并拓展了显著性目标检测方法的应用范围.</abstract><pub>福建农林大学,智慧农林福建省高校重点实验室,福州350002%福建农林大学,智慧农林福建省高校重点实验室,福州350002%福建农林大学,生态公益林重大有害生物防控福建省高校重点实验室,福州350002</pub><doi>10.16380/j.kcxb.2021.05.008</doi></addata></record> |
fulltext | fulltext |
identifier | ISSN: 0454-6296 |
ispartof | 昆虫学报, 2021, Vol.64 (5), p.611-617 |
issn | 0454-6296 |
language | chi |
recordid | cdi_wanfang_journals_kcxb202105008 |
source | EZB-FREE-00999 freely available EZB journals; Alma/SFX Local Collection |
title | 基于F3Net显著性目标检测的蝴蝶图像前背景自动分割 |
url | https://sfx.bib-bvb.de/sfx_tum?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-8&ctx_tim=2024-12-27T20%3A05%3A51IST&url_ver=Z39.88-2004&url_ctx_fmt=infofi/fmt:kev:mtx:ctx&rfr_id=info:sid/primo.exlibrisgroup.com:primo3-Article-wanfang_jour&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.genre=article&rft.atitle=%E5%9F%BA%E4%BA%8EF3Net%E6%98%BE%E8%91%97%E6%80%A7%E7%9B%AE%E6%A0%87%E6%A3%80%E6%B5%8B%E7%9A%84%E8%9D%B4%E8%9D%B6%E5%9B%BE%E5%83%8F%E5%89%8D%E8%83%8C%E6%99%AF%E8%87%AA%E5%8A%A8%E5%88%86%E5%89%B2&rft.jtitle=%E6%98%86%E8%99%AB%E5%AD%A6%E6%8A%A5&rft.au=%E9%BB%84%E4%B8%96%E5%9B%BD&rft.date=2021&rft.volume=64&rft.issue=5&rft.spage=611&rft.epage=617&rft.pages=611-617&rft.issn=0454-6296&rft_id=info:doi/10.16380/j.kcxb.2021.05.008&rft_dat=%3Cwanfang_jour%3Ekcxb202105008%3C/wanfang_jour%3E%3Curl%3E%3C/url%3E&disable_directlink=true&sfx.directlink=off&sfx.report_link=0&rft_id=info:oai/&rft_id=info:pmid/&rft_wanfj_id=kcxb202105008&rfr_iscdi=true |