首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
卷积神经网络已被广泛应用于各种计算机视觉任务中,然而研究发现卷积神经网络极易受到精心设计的对抗样本攻击。为了抵御对抗攻击,提出一种基于注意力机制的条件生成对抗网络防御方法(attention conditional generative adversarial net, Attention-CGAN)。本算法利用对抗样本作为Attention-CGAN的训练样本,同时将生成器的生成样本输入分类器,得到注意力损失和分类损失;通过这两种损失函数训练Attention-CGAN,从而保证去噪样本的注意力区域与原始干净样本一致。在CIFAR10(Canadia Institute for Advanced Research)和ILSVRC2012(ImageNet Large Scale Visual Recognition Challenge)2个数据集上进行大量试验,结果表明去噪之后的样本分类准确率保持在70%以上。基于注意力机制CGAN的对抗样本去噪方法能提高卷积神经网络的鲁棒性,可为深度学习模型防御对抗攻击提供参考。  相似文献   

2.
为了提升胶囊神经网络的对抗鲁棒性,本文提出了基于Lipschitz常数约束的正则化方法,利用对抗训练方法来得到更加鲁棒的胶囊网络,将改进后的模型命名为Lips-CapsNet。相比较其它模型而言,Lips-CapsNet计算简便,不需要对胶囊网络的结构做出任何改变。实验结果显示,模型在MNIST、SVHN等数据集上实现了鲁棒性的提升,尤其是在Fashion-MNIST数据集上,在较强的攻击算法下,对抗样本的预测精度提升可达8%。  相似文献   

3.
深度学习模型极容易受到对抗样本的攻击。为了提高模型的鲁棒性,提升相关技术在现实生活中应用的安全性,提出一种轻型可逆网络(lightweight reversible network, LRNet)用于有效去除对抗样本中的对抗扰动。首先,将哈尔小波变换与可逆网络相结合,获得更丰富的特征;其次,将特征通道分离,利用干净样本的高低频特征指导学习,从随机数中重采样替换高频信息去除对抗扰动;再次,提出特征分离模块,去除非鲁棒特征,提高分类准确率。结果表明:LRNet防御模型能显著提高防御准确率,其分类准确率在MNIST,CIFAR-10数据集上较防御模型ARN分别从91.62%和67.29%提升到97.65%和78.55%;模型的参数大小降低至0.48 MiB,是APE-GAN模型的20%;防御模型的迁移能力得到极大提高,为对抗样本的防御提供了一种新方法。  相似文献   

4.
为了避免现有讽刺识别方法的性能会受训练数据缺乏的影响, 在使用有限标注数据训练的注意力卷积神经网络基础上, 提出一种对抗学习框架, 该框架包含两种互补的对抗学习方法。首先, 提出一种基于对抗样本的学习方法, 应用对抗生成的样本参与模型训练, 以期提高分类器的鲁棒性和泛化能力。进而, 研究基于领域迁移的对抗学习方法, 以期利用跨领域讽刺表达数据, 改善模型在目标领域上的识别性能。在3个讽刺数据集上的实验结果表明, 两种对抗学习方法都能提高讽刺识别的性能, 其中基于领域迁移方法的性能提升更显著; 同时结合两种对抗学习方法能够进一步提高讽刺识别性能。  相似文献   

5.
针对现有对抗样本检测方法存在检测准确率低和训练收敛速度慢等问题,提出一种基于图像去噪技术和图像生成技术实现的对抗样本检测方法.该检测方法将对抗样本检测问题转换为图像分类问题,无须事先得知被攻击模型的结构和参数,仅使用图像的语义信息和分类标签信息即可判定图像是否为对抗样本.首先,采用基于swin-transformer和vision-transformer实现的移动窗口式掩码自编码器去除图像中的对抗性噪声,还原图像的语义信息.然后,使用基于带有梯度惩罚的条件生成式对抗网络实现的图像生成部分根据图像分类标签信息生成图像.最后,将前两阶段输出的图像输入卷积神经网络进行分类,通过对比完成去噪的图像和生成图像的分类结果一致性判定检测图像是否为对抗样本.在MNIST、GTSRB和CIAFAR-10数据集上的实验结果表明,相比于传统检测方法,本文提出的对抗样本检测方法的平均检测准确率提高6%~36%,F1分数提高6%~37%,训练收敛耗时缩减27%~83%,存在一定优势.  相似文献   

6.
为了整合对图像的隐私保护、版权保护、完整性保护,提出一种压缩域基于相似码字替换的对抗嵌入方法 .该方法属于对抗攻击和信息隐藏的交叉新领域,将传统对抗攻击方法中人为添加的无意义噪声替换成有意义的秘密信息,使对抗嵌入图像错误分类,防止攻击者在云端海量数据库中通过神经网络分类模型捕获特定类别的图像,实现对图像的隐私保护;而且,可以从对抗嵌入图像中完整提取隐藏的秘密信息,实现对图像的版权保护.该对抗嵌入方法的攻击对象是图像的压缩形式-矢量量化索引,攻击中使用该索引的不同相似码字索引替换嵌入的秘密信息,可以实现在高压缩率情况下对图像的双重保护.使用遗传算法优化相似索引扰动,可以有效地降低真实类别的概率,误导分类模型的输出.实验结果证明,在CIFAR-10测试数据集上,使用三种经典的网络分类模型(Resnet,NIN,VGG16),提出的对抗嵌入方法使90.83%的图像以85.44%的平均置信度被错误分类,且嵌入容量可以达到0.75 bpp.  相似文献   

7.
为解决标记样本缺乏、提升分类精度及增强模型容错性等问题,提出一种基于辅助分类器生成对抗网络(ACGAN)的分类方法.首先,将预训练的ACGAN模型作为光谱特征提取器,采用局部二值模式(LBP)算法提取图像的纹理特征;然后,融合光谱特征和纹理特征,由卷积神经网络(CNN)进行分类.在2个广泛使用的数据集上进行实验,结果表明:相较于其他方法,文中方法可显著提高分类精度.  相似文献   

8.
针对目前金融领域文本存在标注资源匮乏的问题,提出一种基于生成对抗网络的金融文本情感分类方法. 该方法以边缘堆叠降噪自编码器生成鲁棒性特征表示作为输入,在生成对抗过程中,通过向文本表示向量添加噪声向量再生成新样本,应用对抗学习思想优化文本特征表示. 在公开的跨领域情感评论Amazon数据集和金融领域数据集上进行实验,并与基准实验对比,结果表明,该方法在平均准确率上有显著提升.  相似文献   

9.
王春东  史俊徽 《科学技术与工程》2023,23(24):10199-10208
神经网络的脆弱性是深度学习方法中的关键挑战之一,获得鲁棒的深度神经网络是网络安全和深度学习的共同目标。然而单一学科得参与并不能有效解决当前面对抗鲁棒性面临的复杂问题。该文章旨在引起诸多学科对对抗鲁棒性研究的兴趣,包括认知科学、人类科学和社会科学。本综述从四个方面总结了对抗性鲁棒性,分别是:对抗攻防、对抗性脆弱的原因、泛化和评估。其次,提出了三个较为重要的研究方向以及一些开放性问题。解决对抗脆弱性问题需要多学科参与,对抗鲁棒性研究发展需要深度学习模式向开放转变。  相似文献   

10.
董哲  王亚  马传孝  李志军 《科学技术与工程》2022,22(23):10162-10168
为解决食品安全领域关系抽取数据集体量小且关系种类复杂,普通网络模型无法充分进行特征学习的问题,提出了一种融合对抗训练和胶囊网络的食品安全领域关系抽取模型GAL-CapsNet。该模型使用双向长短期记忆网络提取文本序列的全局特征,并通过胶囊网络的动态路由机制获取高层次的局部特征,具有较强的特征提取能力,同时在嵌入层加入对抗训练提升模型的鲁棒性,从而有效提高了关系抽取任务的效果。在本文所用的食品安全领域数据集上的实验结果显示:对比其他深度神经网络方法,GAL-CapsNet在关系抽取任务中的精确率、召回率和F1值均有明显提升,分别达到了85.91%、82.82%、84.33%,证明了模型在食品安全领域数据集上的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号