图像对抗样本的安全性研究概述

计算机性能的提高和深度学习的出现,使得人工智能技术得到普遍应用,深度学习模型的安全性问题受到了广泛的关注.对抗样本的存在是深度学习应用场景的主要威胁之一,限制了诸如人脸识别、自动驾驶等隐私安全性要求较高的应用场景.深度学习模型除了需要神经网络有良好的性能外,还需要它有足够的鲁棒性.令人担心的是,深度神经网络是否可以稳定可靠有效地应用在现实世界中,如果对深度神经网络的认知仅仅停留在一个黑盒模型,对于输入有良好的输出效果,那很难放心地将其应用在现实中.介绍了对抗样本存在的原因,分类归纳了对抗攻击和对抗防御的算法.同时使用MNIST,CIFAR-10,ImageNet数据集对相关代表性的方法进行了实...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Veröffentlicht in:信息安全研究 2021-04, Vol.7 (4), p.294-309
Hauptverfasser: 徐金才, 任民, 李琦, 孙哲南
Format: Artikel
Sprache:chi
Online-Zugang:Volltext
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:计算机性能的提高和深度学习的出现,使得人工智能技术得到普遍应用,深度学习模型的安全性问题受到了广泛的关注.对抗样本的存在是深度学习应用场景的主要威胁之一,限制了诸如人脸识别、自动驾驶等隐私安全性要求较高的应用场景.深度学习模型除了需要神经网络有良好的性能外,还需要它有足够的鲁棒性.令人担心的是,深度神经网络是否可以稳定可靠有效地应用在现实世界中,如果对深度神经网络的认知仅仅停留在一个黑盒模型,对于输入有良好的输出效果,那很难放心地将其应用在现实中.介绍了对抗样本存在的原因,分类归纳了对抗攻击和对抗防御的算法.同时使用MNIST,CIFAR-10,ImageNet数据集对相关代表性的方法进行了实验验证,最后对这一领域的发展趋势进行了展望.
ISSN:2096-1057