关键词:
时间序列
对抗样本
对抗训练
模型鲁棒性
摘要:
深度学习是解决时间序列分类(Time series classification,TSC)问题的主要途径之一.然而,基于深度学习的TSC模型易受到对抗样本攻击,从而导致模型分类准确率大幅度降低.为此,研究了TSC模型的对抗攻击防御问题,设计了集成对抗训练(Adversarial training,AT)防御方法.首先,设计了一种针对TSC模型的集成对抗训练防御框架,通过多种TSC模型和攻击方式生成对抗样本,并用于训练目标模型.其次,在生成对抗样本的过程中,设计了基于Shapelets的局部扰动算法,并结合动量迭代的快速梯度符号法(Momentum iterative fast gradient sign method,MI-FGSM),实现了有效的白盒攻击.同时,使用知识蒸馏(Knowledge distillation,KD)和基于沃瑟斯坦距离的生成对抗网络(Wasserstein generative adversarial network,WGAN)设计了针对替代模型的黑盒对抗攻击方法,实现了攻击者对目标模型未知时的有效攻击.在此基础上,在对抗训练损失函数中添加Kullback-Leibler(KL)散度约束,进一步提升了模型鲁棒性.最后,在多变量时间序列分类数据集UEA上验证了所提方法的有效性.