关键词:
卷积神经网络
遗传算法
对抗攻击
图像分类
信息安全
摘要:
深度神经网络(deep neural network,DNN)能够取得良好的分类识别效果,但在训练图像中添加微小扰动进行对抗攻击,其识别准确率会大大下降.在提出的方法中,通过遗传算法得到最优扰动后,修改图像极少的像素生成对抗样本,实现对VGG16等3个基于卷积神经网络图像分类器的成功攻击.实验结果表明在对3个分类模型进行单像素攻击时,67.92%的CIFAR-10数据集中的自然图像可以被扰动到至少一个目标类,平均置信度为79.57%,攻击效果会随着修改像素的增加进一步提升.此外,相比于LSA和FGSM方法,攻击效果有着显著提升.