基于F3Net显著性目标检测的蝴蝶图像前背景自动分割
Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分...
Gespeichert in:
Veröffentlicht in: | 昆虫学报 2021, Vol.64 (5), p.611-617 |
---|---|
Hauptverfasser: | , , , , , |
Format: | Artikel |
Sprache: | chi |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Q969; [目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利用蝴蝶图像及其前景蒙板数据,使用交叉特征模块、级联反馈解码器和像素感知损失方法重新训练优化模型参数,得到更优的自动分割模型.同时,将其他5种基于深度学习显著性检测算法也用于自动分割,并比较了这些算法和F3Net算法的性能.[结果]所有算法均获得了很好的蝴蝶图像前背景分割效果,其中,F3Net是更优的算法,其7个指标S测度、E测度、F测度、平均绝对误差(MAE)、精度、召回率和平均IoU值分别为0.940,0.945,0.938,0.024,0.929,0.978和0.909.迁移学习则进一步提升了F3Net的上述指标值,分别为0.961,0.964,0.963,0.013,0.965,0.967和0.938.[结论]研究结果证明结合迁移学习的F3Net算法是其中最优的分割方法.本研究提出的方法可用于野外调查中拍摄的昆虫图像的自动分割,并拓展了显著性目标检测方法的应用范围. |
---|---|
ISSN: | 0454-6296 |
DOI: | 10.16380/j.kcxb.2021.05.008 |