期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于稀疏扰动的对抗样本生成方法
1
作者
吉顺慧
胡黎明
+1 位作者
张鹏程
戚荣志
《软件学报》
EI
CSCD
北大核心
2023年第9期4003-4017,共15页
近年来,深度神经网络(deep neural network, DNN)在图像领域取得了巨大的进展.然而研究表明, DNN容易受到对抗样本的干扰,表现出较差的鲁棒性.通过生成对抗样本攻击DNN,可以对DNN的鲁棒性进行评估,进而采取相应的防御方法提高DNN的鲁棒...
近年来,深度神经网络(deep neural network, DNN)在图像领域取得了巨大的进展.然而研究表明, DNN容易受到对抗样本的干扰,表现出较差的鲁棒性.通过生成对抗样本攻击DNN,可以对DNN的鲁棒性进行评估,进而采取相应的防御方法提高DNN的鲁棒性.现有对抗样本生成方法依旧存在生成扰动稀疏性不足、扰动幅度过大等缺陷.提出一种基于稀疏扰动的对抗样本生成方法——SparseAG (sparse perturbation based adversarial example generation),该方法针对图像样本能够生成较为稀疏并且幅度较小的扰动.具体来讲, SparseAG方法首先基于损失函数关于输入图像的梯度值迭代地选择扰动点来生成初始对抗样本,每一次迭代按照梯度值由大到小的顺序确定新增扰动点的候选集,选择使损失函数值最小的扰动添加到图像中.其次,针对初始扰动方案,通过一种扰动优化策略来提高对抗样本的稀疏性和真实性,基于每个扰动的重要性来改进扰动以跳出局部最优,并进一步减少冗余扰动以及冗余扰动幅度.选取CIFAR-10数据集以及ImageNet数据集,在目标攻击以及非目标攻击两种场景下对该方法进行评估.实验结果表明, SparseAG方法在不同的数据集以及不同的攻击场景下均能够达到100%的攻击成功率,且生成扰动的稀疏性和整体扰动幅度都优于对比方法.
展开更多
关键词
深度神经网络
对抗样本生成
稀疏扰动
图像识别
目标攻击
非目标攻击
在线阅读
下载PDF
职称材料
基于SE-AdvGAN的图像对抗样本生成方法研究
被引量:
1
2
作者
赵宏
宋馥荣
李文改
《计算机工程》
北大核心
2025年第2期300-311,共12页
对抗样本是评估深度神经网络(DNN)鲁棒性和揭示其潜在安全隐患的重要手段。基于生成对抗网络(GAN)的对抗样本生成方法(AdvGAN)在生成图像对抗样本方面取得显著进展,但该方法生成的扰动稀疏性不足且幅度较大,导致对抗样本的真实性较低。...
对抗样本是评估深度神经网络(DNN)鲁棒性和揭示其潜在安全隐患的重要手段。基于生成对抗网络(GAN)的对抗样本生成方法(AdvGAN)在生成图像对抗样本方面取得显著进展,但该方法生成的扰动稀疏性不足且幅度较大,导致对抗样本的真实性较低。为解决这一问题,基于AdvGAN提出一种改进的图像对抗样本生成方法(SE-AdvGAN)。SE-AdvGAN通过构造SE注意力生成器和SE残差判别器来提高扰动的稀疏性。SE注意力生成器用于提取图像关键特征,限制扰动生成位置,SE残差判别器指导生成器避免生成无关扰动。同时,在SE注意力生成器的损失函数中加入以l_(2)范数为基准的边界损失以限制扰动的幅度,从而提高对抗样本的真实性。实验结果表明,在白盒攻击场景下,SE-AdvGAN相较于现有方法生成的对抗样本扰动稀疏性更高、幅度更小,并且在不同目标模型上均取得了更好的攻击效果,说明SE-AdvGAN生成的高质量对抗样本可以更有效地评估DNN模型的鲁棒性。
展开更多
关键词
对抗样本
生成对抗网络
稀疏扰动
深度神经网络
鲁棒性
在线阅读
下载PDF
职称材料
基于视觉-文本损失的开放词汇检测大模型对抗样本生成方法
被引量:
1
3
作者
师皓
王澍
+2 位作者
韩健鸿
罗兆亿
王裕沛
《图学学报》
CSCD
北大核心
2024年第6期1222-1230,共9页
近期,开放词汇检测(OVD)因其在处理未知类别物体识别上的潜力而成为计算机视觉领域的研究焦点。YOLO-World作为该领域的代表性方法,在具有强大实时检测能力的同时,由深度学习网络脆弱性引起的安全问题也不可忽视。基于此背景,提出了一...
近期,开放词汇检测(OVD)因其在处理未知类别物体识别上的潜力而成为计算机视觉领域的研究焦点。YOLO-World作为该领域的代表性方法,在具有强大实时检测能力的同时,由深度学习网络脆弱性引起的安全问题也不可忽视。基于此背景,提出了一种针对YOLO-World算法的白盒对抗样本生成方法,为识别和量化大模型安全漏洞提供思路。方法以YOLO-World网络反向传播过程中产生的梯度数据作为依据,对预设的扰动进行优化,将优化后的扰动添加至原始样本形成对抗样本。首先利用模型输出中的置信度和边界框信息作为初步优化依据,形成具有一定攻击效果的对抗样本;再加上根据YOLO-World模型中的RepVL-PAN结构设计的视觉-文本融合损失,进一步提升对抗样本对模型的破坏性;最后融入扰动量损失对总扰动量进行约束,形成扰动量有限的对抗样本。通过生成的对抗样本可以根据实际需要实现置信度降低、检测框偏移等攻击目标,实验结果表明,该方法对YOLO-World模型具有显著的破坏能力,经过在LIVS数据集上测试,检测平均精度下降至5%以下。
展开更多
关键词
开放词汇检测
YOLO-World
对抗样本
视觉-文本融合损失
稀疏扰动
在线阅读
下载PDF
职称材料
题名
基于稀疏扰动的对抗样本生成方法
1
作者
吉顺慧
胡黎明
张鹏程
戚荣志
机构
水利部水利大数据重点实验室(河海大学)
河海大学计算机与信息学院
出处
《软件学报》
EI
CSCD
北大核心
2023年第9期4003-4017,共15页
基金
国家自然科学基金(U21B2016,61702159)
中央高校基本科研业务费专项资金(B220202072,B210202075)
江苏省自然科学基金(BK20191297,BK20170893)。
文摘
近年来,深度神经网络(deep neural network, DNN)在图像领域取得了巨大的进展.然而研究表明, DNN容易受到对抗样本的干扰,表现出较差的鲁棒性.通过生成对抗样本攻击DNN,可以对DNN的鲁棒性进行评估,进而采取相应的防御方法提高DNN的鲁棒性.现有对抗样本生成方法依旧存在生成扰动稀疏性不足、扰动幅度过大等缺陷.提出一种基于稀疏扰动的对抗样本生成方法——SparseAG (sparse perturbation based adversarial example generation),该方法针对图像样本能够生成较为稀疏并且幅度较小的扰动.具体来讲, SparseAG方法首先基于损失函数关于输入图像的梯度值迭代地选择扰动点来生成初始对抗样本,每一次迭代按照梯度值由大到小的顺序确定新增扰动点的候选集,选择使损失函数值最小的扰动添加到图像中.其次,针对初始扰动方案,通过一种扰动优化策略来提高对抗样本的稀疏性和真实性,基于每个扰动的重要性来改进扰动以跳出局部最优,并进一步减少冗余扰动以及冗余扰动幅度.选取CIFAR-10数据集以及ImageNet数据集,在目标攻击以及非目标攻击两种场景下对该方法进行评估.实验结果表明, SparseAG方法在不同的数据集以及不同的攻击场景下均能够达到100%的攻击成功率,且生成扰动的稀疏性和整体扰动幅度都优于对比方法.
关键词
深度神经网络
对抗样本生成
稀疏扰动
图像识别
目标攻击
非目标攻击
Keywords
deep neural network(DNN)
adversarial example generation
sparse perturbation
image recognition
target attack
non-target attack
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于SE-AdvGAN的图像对抗样本生成方法研究
被引量:
1
2
作者
赵宏
宋馥荣
李文改
机构
兰州理工大学计算机与通信学院
出处
《计算机工程》
北大核心
2025年第2期300-311,共12页
基金
国家自然科学基金(62166025)
甘肃省重点研发计划(21YF5GA073)。
文摘
对抗样本是评估深度神经网络(DNN)鲁棒性和揭示其潜在安全隐患的重要手段。基于生成对抗网络(GAN)的对抗样本生成方法(AdvGAN)在生成图像对抗样本方面取得显著进展,但该方法生成的扰动稀疏性不足且幅度较大,导致对抗样本的真实性较低。为解决这一问题,基于AdvGAN提出一种改进的图像对抗样本生成方法(SE-AdvGAN)。SE-AdvGAN通过构造SE注意力生成器和SE残差判别器来提高扰动的稀疏性。SE注意力生成器用于提取图像关键特征,限制扰动生成位置,SE残差判别器指导生成器避免生成无关扰动。同时,在SE注意力生成器的损失函数中加入以l_(2)范数为基准的边界损失以限制扰动的幅度,从而提高对抗样本的真实性。实验结果表明,在白盒攻击场景下,SE-AdvGAN相较于现有方法生成的对抗样本扰动稀疏性更高、幅度更小,并且在不同目标模型上均取得了更好的攻击效果,说明SE-AdvGAN生成的高质量对抗样本可以更有效地评估DNN模型的鲁棒性。
关键词
对抗样本
生成对抗网络
稀疏扰动
深度神经网络
鲁棒性
Keywords
adversarial example
Generative Adversarial Network(GAN)
sparse perturbation
Deep Neural Network(DNN)
robustness
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于视觉-文本损失的开放词汇检测大模型对抗样本生成方法
被引量:
1
3
作者
师皓
王澍
韩健鸿
罗兆亿
王裕沛
机构
北京理工大学信息与电子学院
出处
《图学学报》
CSCD
北大核心
2024年第6期1222-1230,共9页
基金
国家重点研发计划课题(2023YFC3605900)
天基智能信息处理全国重点实验室重点基金(TJ-01-22-01)
国家自然科学基金(62301046)。
文摘
近期,开放词汇检测(OVD)因其在处理未知类别物体识别上的潜力而成为计算机视觉领域的研究焦点。YOLO-World作为该领域的代表性方法,在具有强大实时检测能力的同时,由深度学习网络脆弱性引起的安全问题也不可忽视。基于此背景,提出了一种针对YOLO-World算法的白盒对抗样本生成方法,为识别和量化大模型安全漏洞提供思路。方法以YOLO-World网络反向传播过程中产生的梯度数据作为依据,对预设的扰动进行优化,将优化后的扰动添加至原始样本形成对抗样本。首先利用模型输出中的置信度和边界框信息作为初步优化依据,形成具有一定攻击效果的对抗样本;再加上根据YOLO-World模型中的RepVL-PAN结构设计的视觉-文本融合损失,进一步提升对抗样本对模型的破坏性;最后融入扰动量损失对总扰动量进行约束,形成扰动量有限的对抗样本。通过生成的对抗样本可以根据实际需要实现置信度降低、检测框偏移等攻击目标,实验结果表明,该方法对YOLO-World模型具有显著的破坏能力,经过在LIVS数据集上测试,检测平均精度下降至5%以下。
关键词
开放词汇检测
YOLO-World
对抗样本
视觉-文本融合损失
稀疏扰动
Keywords
open vocabulary detection
YOLO-World
adversarial examples
visually-textual fusion loss
sparse perturbations
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于稀疏扰动的对抗样本生成方法
吉顺慧
胡黎明
张鹏程
戚荣志
《软件学报》
EI
CSCD
北大核心
2023
0
在线阅读
下载PDF
职称材料
2
基于SE-AdvGAN的图像对抗样本生成方法研究
赵宏
宋馥荣
李文改
《计算机工程》
北大核心
2025
1
在线阅读
下载PDF
职称材料
3
基于视觉-文本损失的开放词汇检测大模型对抗样本生成方法
师皓
王澍
韩健鸿
罗兆亿
王裕沛
《图学学报》
CSCD
北大核心
2024
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部