期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
12
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于通用扰动的对抗网络流量生成方法
被引量:
1
1
作者
丁瑞阳
孙磊
+2 位作者
戴乐育
臧韦菲
徐八一
《计算机科学》
北大核心
2025年第2期336-343,共8页
人工智能技术在网络流量分类领域表现出了巨大潜力,对网络空间安全的战略格局产生了深刻影响。但也有研究发现,深度学习模型有着严重的脆弱性,针对该脆弱性衍生的对抗样本可以大幅度降低模型检测的正确率。目前对抗样本在图像分类领域...
人工智能技术在网络流量分类领域表现出了巨大潜力,对网络空间安全的战略格局产生了深刻影响。但也有研究发现,深度学习模型有着严重的脆弱性,针对该脆弱性衍生的对抗样本可以大幅度降低模型检测的正确率。目前对抗样本在图像分类领域得到了广泛深入的研究,在网络流量分类领域还处于发展阶段。现有的对抗网络流量技术仅对特定样本有效,并且时间开销较大、实用性低。为此,提出了基于通用扰动的对抗网络流量生成方法,其利用空间特征分布的性质寻找通用扰动向量,将该扰动添加到正常流量生成对抗网络流量,令网络流量分类器以高概率检测错误。在Moore和ISCX2016数据集上与现有方法进行了实验测试。结果表明,同等条件下,该方法生成对抗网络流量攻击分类器时对Moore和ISCX2016数据集内样本均有效,成功率高达80%以上;并且可以有效攻击不同的分类器,具有模型迁移性效果;同时实现了对抗网络流量的快速生成,平均生成时间开销低于1 ms,效率远优于现有方法。
展开更多
关键词
深度学习
网络流量分类
对抗网络流量
通用扰动
在线阅读
下载PDF
职称材料
基于多视图网络三维形状检索的通用扰动攻击
被引量:
1
2
作者
唐静
彭伟龙
+1 位作者
唐可可
方美娥
《图学学报》
CSCD
北大核心
2022年第1期93-100,共8页
几何深度学习模型在三维形状检索任务中已应用,其安全评估工作也引起了研究者们的关注。该文针对三维形状检索评估提出一种基于多视图通用扰动攻击(MvUPA)的对抗攻击方法,其具有高成功率的攻击效果。首先设计多视角深度全景图检索模型,...
几何深度学习模型在三维形状检索任务中已应用,其安全评估工作也引起了研究者们的关注。该文针对三维形状检索评估提出一种基于多视图通用扰动攻击(MvUPA)的对抗攻击方法,其具有高成功率的攻击效果。首先设计多视角深度全景图检索模型,训练适用于视图类三维形状检索的高效嵌入向量;其次,为三维形状检索提出有益于通用扰动更新的损失函数方案和攻击机制。该损失函数方案同时融合了三元损失和标签损失,提升了对相近拓扑异类样本和差异拓扑同类样本的对抗扰动生成。通过实验验证了MvUPA在多个视图类检索模型上攻击的有效性和稳定性,攻击指标下降率(DR)最高达94.52%;融合损失函数相比单个损失函数DR指标提高约3.0%~5.5%。
展开更多
关键词
三维形状检索
多视图
通用扰动
攻击
通用扰动
攻击
几何深度学习
融合损失
在线阅读
下载PDF
职称材料
基于快速特征欺骗的通用扰动生成改进方法
3
作者
韦健杰
吕东辉
+1 位作者
陆小锋
孙广玲
《应用科学学报》
CAS
CSCD
北大核心
2020年第6期986-994,共9页
近年来,基于深度神经网络的应用日益广泛,然而深度神经网络容易受到由输入数据设计的微小扰动而带来的对抗性攻击,导致网络的错误输出,给智能系统的部署带来安全隐患.为了提高智能系统的抗风险能力,有必要对存在风险的扰动生成方法展开...
近年来,基于深度神经网络的应用日益广泛,然而深度神经网络容易受到由输入数据设计的微小扰动而带来的对抗性攻击,导致网络的错误输出,给智能系统的部署带来安全隐患.为了提高智能系统的抗风险能力,有必要对存在风险的扰动生成方法展开研究.快速特征欺骗(fast feature fool,FFF)是面向视觉任务的一种有效的通用扰动生成方法.考虑了输入图像在网络中的实际激活状态,以最大化原始图像和对抗样本之间的特征差异作为生成扰动的目标函数;同时考虑不同卷积层对于生成扰动的不同影响,在生成扰动的目标函数中,对不同卷积层对应的项加以不同权重.实验结果表明,改进的FFF方法攻击成功率更高,同时也具备更强的跨模型攻击能力.
展开更多
关键词
深度神经网络
通用扰动
快速特征欺骗
特征差异
在线阅读
下载PDF
职称材料
基于差分进化的神经网络通用扰动生成方法
4
作者
高乾顺
范纯龙
+1 位作者
李炎达
滕一平
《计算机应用》
CSCD
北大核心
2023年第11期3436-3442,共7页
针对超球面通用攻击(HGAA)算法中通用扰动搜索始终限定在空间球面上,不具有球内空间搜索能力的问题,提出一种基于超球面的差分进化算法。该算法将搜索空间扩大到球面内部,并通过差分进化(DE)算法搜索最优球面,从而生成愚弄率更高、模长...
针对超球面通用攻击(HGAA)算法中通用扰动搜索始终限定在空间球面上,不具有球内空间搜索能力的问题,提出一种基于超球面的差分进化算法。该算法将搜索空间扩大到球面内部,并通过差分进化(DE)算法搜索最优球面,从而生成愚弄率更高、模长更低的通用扰动。此外,分析了种群数量等关键参数对该算法的影响,并且测试了该算法生成的通用扰动在不同神经网络模型上的性能。在CIFAR10和SVHN图像分类数据集上进行验证,该算法与HGAA算法相比愚弄率最多提高了11.8个百分点。实验结果表明,该算法扩展了HGAA算法的通用扰动搜索空间,降低了通用扰动的模长,提高了通用扰动的愚弄率。
展开更多
关键词
对抗攻击
通用扰动
神经网络
超球面攻击
差分进化算法
在线阅读
下载PDF
职称材料
基于通用逆扰动的对抗攻击防御方法
被引量:
3
5
作者
陈晋音
吴长安
+2 位作者
郑海斌
王巍
温浩
《自动化学报》
EI
CAS
CSCD
北大核心
2023年第10期2172-2187,共16页
现有研究表明深度学习模型容易受到精心设计的对抗样本攻击,从而导致模型给出错误的推理结果,引发潜在的安全威胁.已有较多有效的防御方法,其中大多数针对特定攻击方法具有较好防御效果,但由于实际应用中无法预知攻击者可能采用的攻击策...
现有研究表明深度学习模型容易受到精心设计的对抗样本攻击,从而导致模型给出错误的推理结果,引发潜在的安全威胁.已有较多有效的防御方法,其中大多数针对特定攻击方法具有较好防御效果,但由于实际应用中无法预知攻击者可能采用的攻击策略,因此提出不依赖攻击方法的通用防御方法是一个挑战.为此,提出一种基于通用逆扰动(Universal inverse perturbation,UIP)的对抗样本防御方法,通过学习原始数据集中的类相关主要特征,生成通用逆扰动,且UIP对数据样本和攻击方法都具有通用性,即一个UIP可以实现对不同攻击方法作用于整个数据集得到的所有对抗样本进行防御.此外,UIP通过强化良性样本的类相关重要特征实现对良性样本精度的无影响,且生成UIP无需对抗样本的先验知识.通过大量实验验证,表明UIP在不同数据集、不同模型中对各类攻击方法都具备显著的防御效果,且提升了模型对正常样本的分类性能.
展开更多
关键词
深度学习
通用
逆
扰动
对抗样本
通用
防御
在线阅读
下载PDF
职称材料
一种融合对抗层的图像通用对抗扰动生成算法
6
作者
徐登辉
张勇
+1 位作者
巩敦卫
孙晓燕
《小型微型计算机系统》
CSCD
北大核心
2022年第8期1687-1696,共10页
随着深度神经网络的广泛应用,其安全性问题日益突出.研究图像对抗样本生成可以提升神经网络的安全性.针对现有通用对抗扰动算法攻击成功率不高的不足,提出一种在深度神经网络中融合对抗层的图像通用对抗扰动生成算法.首先,在神经网络中...
随着深度神经网络的广泛应用,其安全性问题日益突出.研究图像对抗样本生成可以提升神经网络的安全性.针对现有通用对抗扰动算法攻击成功率不高的不足,提出一种在深度神经网络中融合对抗层的图像通用对抗扰动生成算法.首先,在神经网络中引入对抗层的概念,提出一种基于对抗层的图像对抗样本产生框架;随后,将多种典型的基于梯度的对抗攻击算法融入到对抗层框架,理论分析了所提框架的可行性和可扩展性;最后,在所提框架下,给出了一种基于RMSprop的通用对抗扰动产生算法.在多个图像数据集上训练了5种不同结构的深度神经网络分类模型,并将所提对抗层算法和4种典型的通用对抗扰动算法分别用于攻击这些分类模型,比较它们的愚弄率.对比实验表明,所提通用对抗扰动生成算法具有兼顾攻击成功率和攻击效率的优点,只需要1%的样本数据就可以获得较高的攻击成率.
展开更多
关键词
图像分类
对抗样本
通用扰动
对抗层
RMSprop
在线阅读
下载PDF
职称材料
基于通用对抗扰动的图像验证码保护方法
被引量:
5
7
作者
舒乐
戴佳筑
《计算机工程与应用》
CSCD
北大核心
2021年第18期135-141,共7页
卷积神经网络的发展使得图像验证码已经不再安全。基于卷积神经网络中存在的通用对抗扰动,提出了一种图像验证码的保护方法。提出了一种快速生成通用对抗扰动的算法,将方向相似的对抗扰动向量进行叠加以加快生成通用对抗扰动的速度。基...
卷积神经网络的发展使得图像验证码已经不再安全。基于卷积神经网络中存在的通用对抗扰动,提出了一种图像验证码的保护方法。提出了一种快速生成通用对抗扰动的算法,将方向相似的对抗扰动向量进行叠加以加快生成通用对抗扰动的速度。基于此算法设计了图像验证码的保护方案,将通用对抗扰动加入到验证码的图像中使其无法被卷积神经网络模型识别。在ImageNet数据集上进行的仿真实验结果表明,该方案比现有工作Deep-CAPTCHA具有更低的破解率,能有效保护图像验证码不被主流的卷积神经网络模型破解。
展开更多
关键词
深度学习
对抗样本
通用
对抗
扰动
图像验证码
卷积神经网络
图像分类
在线阅读
下载PDF
职称材料
基于生成式对抗网络的通用性对抗扰动生成方法
被引量:
3
8
作者
刘恒
吴德鑫
徐剑
《信息网络安全》
CSCD
北大核心
2020年第5期57-64,共8页
深度神经网络在图像分类应用中具有很高的准确率,然而,当在原始图像中添加微小的对抗扰动后,深度神经网络的分类准确率会显著下降。研究表明,对于一个分类器和数据集存在一种通用性对抗扰动,其可对大部分原始图像产生攻击效果。文章设...
深度神经网络在图像分类应用中具有很高的准确率,然而,当在原始图像中添加微小的对抗扰动后,深度神经网络的分类准确率会显著下降。研究表明,对于一个分类器和数据集存在一种通用性对抗扰动,其可对大部分原始图像产生攻击效果。文章设计了一种通过生成式对抗网络来制作通用性对抗扰动的方法。通过生成式对抗网络的训练,生成器可制作出通用性对抗扰动,将该扰动添加到原始图像中制作对抗样本,从而达到攻击的目的。文章在CIFAR-10数据集上进行了无目标攻击、目标攻击和迁移性攻击实验。实验表明,生成式对抗网络生成的通用性对抗扰动可在较低范数约束下达到89%的攻击成功率,且利用训练后的生成器可在短时间内制作出大量的对抗样本,利于深度神经网络的鲁棒性研究。
展开更多
关键词
深度神经网络
通用
性对抗
扰动
生成式对抗网络
在线阅读
下载PDF
职称材料
基于随机梯度上升和球面投影的通用对抗攻击方法
被引量:
3
9
作者
范纯龙
李彦达
+1 位作者
夏秀峰
乔建忠
《东北大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2022年第2期168-175,共8页
在面向样本集的通用对抗攻击中,导致多数样本输出错误的通用扰动设计是研究关键.本文以典型卷积神经网络为研究对象,对现有通用扰动生成算法进行总结,提出采用批量随机梯度上升训练策略和球面投影搜索策略相结合的通用扰动生成算法.算...
在面向样本集的通用对抗攻击中,导致多数样本输出错误的通用扰动设计是研究关键.本文以典型卷积神经网络为研究对象,对现有通用扰动生成算法进行总结,提出采用批量随机梯度上升训练策略和球面投影搜索策略相结合的通用扰动生成算法.算法的每次迭代计算,首先从样本集中抽取小批量样本,采用随机梯度上升策略计算出使损失函数值下降的通用对抗扰动,然后将通用扰动投影到半径为ε的高维球面上,从而缩小通用扰动的搜索空间.算法还引入了正则化技术以改善通用扰动的生成质量.实验结果证明该算法与基线算法对比,攻击成功率显著提升,通用扰动的求解效率提高约30倍.
展开更多
关键词
卷积神经网络
通用扰动
球面投影
梯度上升
对抗攻击
在线阅读
下载PDF
职称材料
利用主成分分析的通信调制识别通用对抗攻击方法
被引量:
1
10
作者
柯达
黄知涛
+1 位作者
邓寿云
卢超奇
《国防科技大学学报》
EI
CAS
CSCD
北大核心
2023年第5期30-37,共8页
深度学习容易被对抗样本所攻击。以通信调制识别为例,在待传输的通信信号中加入对抗性扰动,可以有效防止非合作的用户利用深度学习方法识别信号的调制方式,进而提升通信安全。针对现有对抗样本生成技术难以满足自适应和实时性的问题,通...
深度学习容易被对抗样本所攻击。以通信调制识别为例,在待传输的通信信号中加入对抗性扰动,可以有效防止非合作的用户利用深度学习方法识别信号的调制方式,进而提升通信安全。针对现有对抗样本生成技术难以满足自适应和实时性的问题,通过对数据集中抽取的小部分数据产生的对抗扰动进行主成分分析,得到适用于整个数据集的通用对抗扰动。通用对抗扰动的计算可以在离线条件下进行,然后实时添加到待发射的信号中,可以满足通信的实时性要求,实现降低非合作方调制识别准确率的目的。实验结果表明该方法相对基线方法具有更优的欺骗性能。
展开更多
关键词
对抗样本
通用
对抗
扰动
通信调制识别
在线阅读
下载PDF
职称材料
基于替代模型的批量零阶梯度符号算法
11
作者
李炎达
范纯龙
+1 位作者
滕一平
于铠博
《计算机科学》
CSCD
北大核心
2023年第S02期851-856,共6页
在面向神经网络的对抗攻击领域中,针对黑盒模型进行的通用攻击,如何生成导致多数样本输出错误的通用扰动是亟待解决的问题。然而,现有黑盒通用扰动生成算法的攻击效果不佳,且生成的扰动易被肉眼察觉。针对该问题,以典型卷积神经网络为...
在面向神经网络的对抗攻击领域中,针对黑盒模型进行的通用攻击,如何生成导致多数样本输出错误的通用扰动是亟待解决的问题。然而,现有黑盒通用扰动生成算法的攻击效果不佳,且生成的扰动易被肉眼察觉。针对该问题,以典型卷积神经网络为研究对象,提出基于替代模型的批量零阶梯度符号算法。该算法通过对替代模型集合进行白盒攻击来初始化通用扰动,并在黑盒条件下查询目标模型,实现对通用扰动的稳定高效更新。在CIFAR-10和SVHN两个数据集上的实验结果表明,与基线算法对比,该算法攻击能力显著提升,其生成通用扰动的性能提高了近3倍。
展开更多
关键词
卷积神经网络
通用扰动
对抗攻击
黑盒攻击
替代模型
在线阅读
下载PDF
职称材料
文本对抗验证码的研究
被引量:
1
12
作者
李剑明
闫巧
《计算机工程与应用》
CSCD
北大核心
2023年第21期278-286,共9页
图像识别等深度学习技术的发展使得传统的文本验证码安全性下降,利用对抗样本这一深度神经网络存在的缺陷来增强文本验证码的安全性具有重要研究意义。通过将多种对抗样本生成算法应用到文本验证码上,生成文本对抗验证码,并从耗时、扰...
图像识别等深度学习技术的发展使得传统的文本验证码安全性下降,利用对抗样本这一深度神经网络存在的缺陷来增强文本验证码的安全性具有重要研究意义。通过将多种对抗样本生成算法应用到文本验证码上,生成文本对抗验证码,并从耗时、扰动大小、黑白盒识别率等多个方面衡量生成的对抗验证码的实际效果。基于验证码生成频率较高的应用场景特点,筛选出将通用对抗扰动应用到文本验证码上的方案;在应用快速通用对抗扰动(Fast-UAP)算法时,为了克服Fast-UAP的不稳定性,提出了I-FUAP(initialized-FUAP)算法,通过利用通用对抗扰动来进行初始化,实验表明,在不显著影响扰动成功率和对抗样本攻击效果的前提下,改进后的算法相比于原来的Fast-UAP能更快地生成通用对抗扰动,生成耗时减少约30.22%。
展开更多
关键词
深度学习
验证码
对抗攻击
通用
对抗
扰动
在线阅读
下载PDF
职称材料
题名
基于通用扰动的对抗网络流量生成方法
被引量:
1
1
作者
丁瑞阳
孙磊
戴乐育
臧韦菲
徐八一
机构
信息工程大学密码工程学院
郑州大学网络空间安全学院
出处
《计算机科学》
北大核心
2025年第2期336-343,共8页
文摘
人工智能技术在网络流量分类领域表现出了巨大潜力,对网络空间安全的战略格局产生了深刻影响。但也有研究发现,深度学习模型有着严重的脆弱性,针对该脆弱性衍生的对抗样本可以大幅度降低模型检测的正确率。目前对抗样本在图像分类领域得到了广泛深入的研究,在网络流量分类领域还处于发展阶段。现有的对抗网络流量技术仅对特定样本有效,并且时间开销较大、实用性低。为此,提出了基于通用扰动的对抗网络流量生成方法,其利用空间特征分布的性质寻找通用扰动向量,将该扰动添加到正常流量生成对抗网络流量,令网络流量分类器以高概率检测错误。在Moore和ISCX2016数据集上与现有方法进行了实验测试。结果表明,同等条件下,该方法生成对抗网络流量攻击分类器时对Moore和ISCX2016数据集内样本均有效,成功率高达80%以上;并且可以有效攻击不同的分类器,具有模型迁移性效果;同时实现了对抗网络流量的快速生成,平均生成时间开销低于1 ms,效率远优于现有方法。
关键词
深度学习
网络流量分类
对抗网络流量
通用扰动
Keywords
Deep learning
Network traffic classification
Adversarial network traffic
Universal perturbations
分类号
TP393 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于多视图网络三维形状检索的通用扰动攻击
被引量:
1
2
作者
唐静
彭伟龙
唐可可
方美娥
机构
广州大学计算机科学与网络工程学院
出处
《图学学报》
CSCD
北大核心
2022年第1期93-100,共8页
基金
国家自然科学基金项目(62072126,61772164)
广州市科技计划项目(202002030263,202102010419),广州大学校内科研人才培育项目(XJ2021001901)。
文摘
几何深度学习模型在三维形状检索任务中已应用,其安全评估工作也引起了研究者们的关注。该文针对三维形状检索评估提出一种基于多视图通用扰动攻击(MvUPA)的对抗攻击方法,其具有高成功率的攻击效果。首先设计多视角深度全景图检索模型,训练适用于视图类三维形状检索的高效嵌入向量;其次,为三维形状检索提出有益于通用扰动更新的损失函数方案和攻击机制。该损失函数方案同时融合了三元损失和标签损失,提升了对相近拓扑异类样本和差异拓扑同类样本的对抗扰动生成。通过实验验证了MvUPA在多个视图类检索模型上攻击的有效性和稳定性,攻击指标下降率(DR)最高达94.52%;融合损失函数相比单个损失函数DR指标提高约3.0%~5.5%。
关键词
三维形状检索
多视图
通用扰动
攻击
通用扰动
攻击
几何深度学习
融合损失
Keywords
3D shape retrieval
multi-view universal perturbation attack
universal perturbation attack
geometric deep learning
fusion loss
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于快速特征欺骗的通用扰动生成改进方法
3
作者
韦健杰
吕东辉
陆小锋
孙广玲
机构
上海大学通信与信息工程学院
出处
《应用科学学报》
CAS
CSCD
北大核心
2020年第6期986-994,共9页
基金
国家自然科学基金(No.U1636206)资助。
文摘
近年来,基于深度神经网络的应用日益广泛,然而深度神经网络容易受到由输入数据设计的微小扰动而带来的对抗性攻击,导致网络的错误输出,给智能系统的部署带来安全隐患.为了提高智能系统的抗风险能力,有必要对存在风险的扰动生成方法展开研究.快速特征欺骗(fast feature fool,FFF)是面向视觉任务的一种有效的通用扰动生成方法.考虑了输入图像在网络中的实际激活状态,以最大化原始图像和对抗样本之间的特征差异作为生成扰动的目标函数;同时考虑不同卷积层对于生成扰动的不同影响,在生成扰动的目标函数中,对不同卷积层对应的项加以不同权重.实验结果表明,改进的FFF方法攻击成功率更高,同时也具备更强的跨模型攻击能力.
关键词
深度神经网络
通用扰动
快速特征欺骗
特征差异
Keywords
deep neural networks
universal perturbations
fast feature fool(FFF)
feature difference
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
基于差分进化的神经网络通用扰动生成方法
4
作者
高乾顺
范纯龙
李炎达
滕一平
机构
沈阳航空航天大学计算机学院
出处
《计算机应用》
CSCD
北大核心
2023年第11期3436-3442,共7页
基金
国家自然科学基金资助项目(61902260)
辽宁省教育厅科学研究项目(JYT2020026)。
文摘
针对超球面通用攻击(HGAA)算法中通用扰动搜索始终限定在空间球面上,不具有球内空间搜索能力的问题,提出一种基于超球面的差分进化算法。该算法将搜索空间扩大到球面内部,并通过差分进化(DE)算法搜索最优球面,从而生成愚弄率更高、模长更低的通用扰动。此外,分析了种群数量等关键参数对该算法的影响,并且测试了该算法生成的通用扰动在不同神经网络模型上的性能。在CIFAR10和SVHN图像分类数据集上进行验证,该算法与HGAA算法相比愚弄率最多提高了11.8个百分点。实验结果表明,该算法扩展了HGAA算法的通用扰动搜索空间,降低了通用扰动的模长,提高了通用扰动的愚弄率。
关键词
对抗攻击
通用扰动
神经网络
超球面攻击
差分进化算法
Keywords
adversarial attack
universal perturbation
neural network
hypersphere attack
Differential Evolution(DE)algorithm
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于通用逆扰动的对抗攻击防御方法
被引量:
3
5
作者
陈晋音
吴长安
郑海斌
王巍
温浩
机构
浙江工业大学网络空间安全研究院
浙江工业大学信息工程学院
中国电子科技集团公司第三十六研究所
重庆中科云从科技有限公司
出处
《自动化学报》
EI
CAS
CSCD
北大核心
2023年第10期2172-2187,共16页
基金
国家自然科学基金(62072406)
浙江省自然科学基金(LY19F020025)
教育部产学合作协同育人项目资助。
文摘
现有研究表明深度学习模型容易受到精心设计的对抗样本攻击,从而导致模型给出错误的推理结果,引发潜在的安全威胁.已有较多有效的防御方法,其中大多数针对特定攻击方法具有较好防御效果,但由于实际应用中无法预知攻击者可能采用的攻击策略,因此提出不依赖攻击方法的通用防御方法是一个挑战.为此,提出一种基于通用逆扰动(Universal inverse perturbation,UIP)的对抗样本防御方法,通过学习原始数据集中的类相关主要特征,生成通用逆扰动,且UIP对数据样本和攻击方法都具有通用性,即一个UIP可以实现对不同攻击方法作用于整个数据集得到的所有对抗样本进行防御.此外,UIP通过强化良性样本的类相关重要特征实现对良性样本精度的无影响,且生成UIP无需对抗样本的先验知识.通过大量实验验证,表明UIP在不同数据集、不同模型中对各类攻击方法都具备显著的防御效果,且提升了模型对正常样本的分类性能.
关键词
深度学习
通用
逆
扰动
对抗样本
通用
防御
Keywords
Deep learning
universal inverse perturbation(UIP)
adversarial example
general defense
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
一种融合对抗层的图像通用对抗扰动生成算法
6
作者
徐登辉
张勇
巩敦卫
孙晓燕
机构
中国矿业大学信息与控制工程学院
出处
《小型微型计算机系统》
CSCD
北大核心
2022年第8期1687-1696,共10页
基金
科技部科技创新2030―“新一代人工智能”重大项目(2020AAA0107300)资助.
文摘
随着深度神经网络的广泛应用,其安全性问题日益突出.研究图像对抗样本生成可以提升神经网络的安全性.针对现有通用对抗扰动算法攻击成功率不高的不足,提出一种在深度神经网络中融合对抗层的图像通用对抗扰动生成算法.首先,在神经网络中引入对抗层的概念,提出一种基于对抗层的图像对抗样本产生框架;随后,将多种典型的基于梯度的对抗攻击算法融入到对抗层框架,理论分析了所提框架的可行性和可扩展性;最后,在所提框架下,给出了一种基于RMSprop的通用对抗扰动产生算法.在多个图像数据集上训练了5种不同结构的深度神经网络分类模型,并将所提对抗层算法和4种典型的通用对抗扰动算法分别用于攻击这些分类模型,比较它们的愚弄率.对比实验表明,所提通用对抗扰动生成算法具有兼顾攻击成功率和攻击效率的优点,只需要1%的样本数据就可以获得较高的攻击成率.
关键词
图像分类
对抗样本
通用扰动
对抗层
RMSprop
Keywords
image classification
adversarial example
universal perturbation
adversarial layer
RMSprop
分类号
TP312 [自动化与计算机技术—计算机软件与理论]
在线阅读
下载PDF
职称材料
题名
基于通用对抗扰动的图像验证码保护方法
被引量:
5
7
作者
舒乐
戴佳筑
机构
上海大学计算机工程与科学学院
出处
《计算机工程与应用》
CSCD
北大核心
2021年第18期135-141,共7页
基金
国家留学基金委国外访学基金(201606895018)
广东省重点领域研发计划(2018B010113001)。
文摘
卷积神经网络的发展使得图像验证码已经不再安全。基于卷积神经网络中存在的通用对抗扰动,提出了一种图像验证码的保护方法。提出了一种快速生成通用对抗扰动的算法,将方向相似的对抗扰动向量进行叠加以加快生成通用对抗扰动的速度。基于此算法设计了图像验证码的保护方案,将通用对抗扰动加入到验证码的图像中使其无法被卷积神经网络模型识别。在ImageNet数据集上进行的仿真实验结果表明,该方案比现有工作Deep-CAPTCHA具有更低的破解率,能有效保护图像验证码不被主流的卷积神经网络模型破解。
关键词
深度学习
对抗样本
通用
对抗
扰动
图像验证码
卷积神经网络
图像分类
Keywords
deep learning
adversarial example
universal adversarial perturbation
image-based CAPTCHA
convolu-tional neural network
image classification
分类号
TP399 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于生成式对抗网络的通用性对抗扰动生成方法
被引量:
3
8
作者
刘恒
吴德鑫
徐剑
机构
东北大学软件学院
出处
《信息网络安全》
CSCD
北大核心
2020年第5期57-64,共8页
基金
国家自然科学基金[61872069]
中央高校基本科研业务费[N2017012]。
文摘
深度神经网络在图像分类应用中具有很高的准确率,然而,当在原始图像中添加微小的对抗扰动后,深度神经网络的分类准确率会显著下降。研究表明,对于一个分类器和数据集存在一种通用性对抗扰动,其可对大部分原始图像产生攻击效果。文章设计了一种通过生成式对抗网络来制作通用性对抗扰动的方法。通过生成式对抗网络的训练,生成器可制作出通用性对抗扰动,将该扰动添加到原始图像中制作对抗样本,从而达到攻击的目的。文章在CIFAR-10数据集上进行了无目标攻击、目标攻击和迁移性攻击实验。实验表明,生成式对抗网络生成的通用性对抗扰动可在较低范数约束下达到89%的攻击成功率,且利用训练后的生成器可在短时间内制作出大量的对抗样本,利于深度神经网络的鲁棒性研究。
关键词
深度神经网络
通用
性对抗
扰动
生成式对抗网络
Keywords
deep neural network
universal adversarial perturbation
generative adversarial network
分类号
TP309 [自动化与计算机技术—计算机系统结构]
在线阅读
下载PDF
职称材料
题名
基于随机梯度上升和球面投影的通用对抗攻击方法
被引量:
3
9
作者
范纯龙
李彦达
夏秀峰
乔建忠
机构
东北大学计算机科学与工程学院
沈阳航空航天大学计算机学院
出处
《东北大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2022年第2期168-175,共8页
基金
国家自然科学基金青年基金资助项目(61902260)
国家自然科学基金资助项目(61972266).
文摘
在面向样本集的通用对抗攻击中,导致多数样本输出错误的通用扰动设计是研究关键.本文以典型卷积神经网络为研究对象,对现有通用扰动生成算法进行总结,提出采用批量随机梯度上升训练策略和球面投影搜索策略相结合的通用扰动生成算法.算法的每次迭代计算,首先从样本集中抽取小批量样本,采用随机梯度上升策略计算出使损失函数值下降的通用对抗扰动,然后将通用扰动投影到半径为ε的高维球面上,从而缩小通用扰动的搜索空间.算法还引入了正则化技术以改善通用扰动的生成质量.实验结果证明该算法与基线算法对比,攻击成功率显著提升,通用扰动的求解效率提高约30倍.
关键词
卷积神经网络
通用扰动
球面投影
梯度上升
对抗攻击
Keywords
convolutional neural network
general perturbation
spherical surface projection
gradient ascent
adversarial attack
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
利用主成分分析的通信调制识别通用对抗攻击方法
被引量:
1
10
作者
柯达
黄知涛
邓寿云
卢超奇
机构
国防科技大学电子科学学院
国防科技大学电子对抗学院
中国人民解放军
出处
《国防科技大学学报》
EI
CAS
CSCD
北大核心
2023年第5期30-37,共8页
基金
国防科技大学青年科技创新奖资助项目(18/19-QNCXJ)。
文摘
深度学习容易被对抗样本所攻击。以通信调制识别为例,在待传输的通信信号中加入对抗性扰动,可以有效防止非合作的用户利用深度学习方法识别信号的调制方式,进而提升通信安全。针对现有对抗样本生成技术难以满足自适应和实时性的问题,通过对数据集中抽取的小部分数据产生的对抗扰动进行主成分分析,得到适用于整个数据集的通用对抗扰动。通用对抗扰动的计算可以在离线条件下进行,然后实时添加到待发射的信号中,可以满足通信的实时性要求,实现降低非合作方调制识别准确率的目的。实验结果表明该方法相对基线方法具有更优的欺骗性能。
关键词
对抗样本
通用
对抗
扰动
通信调制识别
Keywords
adversarial examples
universal adversarial perturbation
communication modulation identification
分类号
TN97 [电子电信—信号与信息处理]
在线阅读
下载PDF
职称材料
题名
基于替代模型的批量零阶梯度符号算法
11
作者
李炎达
范纯龙
滕一平
于铠博
机构
沈阳航空航天大学计算机学院
出处
《计算机科学》
CSCD
北大核心
2023年第S02期851-856,共6页
基金
国家自然科学基金青年基金(61902260)
辽宁省教育厅科学研究资助项目(JYT2020026)。
文摘
在面向神经网络的对抗攻击领域中,针对黑盒模型进行的通用攻击,如何生成导致多数样本输出错误的通用扰动是亟待解决的问题。然而,现有黑盒通用扰动生成算法的攻击效果不佳,且生成的扰动易被肉眼察觉。针对该问题,以典型卷积神经网络为研究对象,提出基于替代模型的批量零阶梯度符号算法。该算法通过对替代模型集合进行白盒攻击来初始化通用扰动,并在黑盒条件下查询目标模型,实现对通用扰动的稳定高效更新。在CIFAR-10和SVHN两个数据集上的实验结果表明,与基线算法对比,该算法攻击能力显著提升,其生成通用扰动的性能提高了近3倍。
关键词
卷积神经网络
通用扰动
对抗攻击
黑盒攻击
替代模型
Keywords
Convolutional neural network
Universal perturbation
Adversarial attack
Black-box attack
Substitution model
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
文本对抗验证码的研究
被引量:
1
12
作者
李剑明
闫巧
机构
深圳大学计算机与软件学院
出处
《计算机工程与应用》
CSCD
北大核心
2023年第21期278-286,共9页
基金
国家自然科学基金(61976142)
深圳科技计划项目(JCYJ20210324093609025)。
文摘
图像识别等深度学习技术的发展使得传统的文本验证码安全性下降,利用对抗样本这一深度神经网络存在的缺陷来增强文本验证码的安全性具有重要研究意义。通过将多种对抗样本生成算法应用到文本验证码上,生成文本对抗验证码,并从耗时、扰动大小、黑白盒识别率等多个方面衡量生成的对抗验证码的实际效果。基于验证码生成频率较高的应用场景特点,筛选出将通用对抗扰动应用到文本验证码上的方案;在应用快速通用对抗扰动(Fast-UAP)算法时,为了克服Fast-UAP的不稳定性,提出了I-FUAP(initialized-FUAP)算法,通过利用通用对抗扰动来进行初始化,实验表明,在不显著影响扰动成功率和对抗样本攻击效果的前提下,改进后的算法相比于原来的Fast-UAP能更快地生成通用对抗扰动,生成耗时减少约30.22%。
关键词
深度学习
验证码
对抗攻击
通用
对抗
扰动
Keywords
deep learning
completely automated public turing test to tell computers and humans apart(CAPTCHA)
adversarial attack
universal adversarial perturbation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于通用扰动的对抗网络流量生成方法
丁瑞阳
孙磊
戴乐育
臧韦菲
徐八一
《计算机科学》
北大核心
2025
1
在线阅读
下载PDF
职称材料
2
基于多视图网络三维形状检索的通用扰动攻击
唐静
彭伟龙
唐可可
方美娥
《图学学报》
CSCD
北大核心
2022
1
在线阅读
下载PDF
职称材料
3
基于快速特征欺骗的通用扰动生成改进方法
韦健杰
吕东辉
陆小锋
孙广玲
《应用科学学报》
CAS
CSCD
北大核心
2020
0
在线阅读
下载PDF
职称材料
4
基于差分进化的神经网络通用扰动生成方法
高乾顺
范纯龙
李炎达
滕一平
《计算机应用》
CSCD
北大核心
2023
0
在线阅读
下载PDF
职称材料
5
基于通用逆扰动的对抗攻击防御方法
陈晋音
吴长安
郑海斌
王巍
温浩
《自动化学报》
EI
CAS
CSCD
北大核心
2023
3
在线阅读
下载PDF
职称材料
6
一种融合对抗层的图像通用对抗扰动生成算法
徐登辉
张勇
巩敦卫
孙晓燕
《小型微型计算机系统》
CSCD
北大核心
2022
0
在线阅读
下载PDF
职称材料
7
基于通用对抗扰动的图像验证码保护方法
舒乐
戴佳筑
《计算机工程与应用》
CSCD
北大核心
2021
5
在线阅读
下载PDF
职称材料
8
基于生成式对抗网络的通用性对抗扰动生成方法
刘恒
吴德鑫
徐剑
《信息网络安全》
CSCD
北大核心
2020
3
在线阅读
下载PDF
职称材料
9
基于随机梯度上升和球面投影的通用对抗攻击方法
范纯龙
李彦达
夏秀峰
乔建忠
《东北大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2022
3
在线阅读
下载PDF
职称材料
10
利用主成分分析的通信调制识别通用对抗攻击方法
柯达
黄知涛
邓寿云
卢超奇
《国防科技大学学报》
EI
CAS
CSCD
北大核心
2023
1
在线阅读
下载PDF
职称材料
11
基于替代模型的批量零阶梯度符号算法
李炎达
范纯龙
滕一平
于铠博
《计算机科学》
CSCD
北大核心
2023
0
在线阅读
下载PDF
职称材料
12
文本对抗验证码的研究
李剑明
闫巧
《计算机工程与应用》
CSCD
北大核心
2023
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部