期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于GAN的无数据黑盒对抗攻击方法
1
作者 赵恩浩 凌捷 《计算机工程与应用》 北大核心 2025年第7期204-212,共9页
对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗... 对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗攻击方法。无需目标模型的训练数据,使用混合标签信息的噪声生成替代模型所需的训练样本,通过目标模型的标记信息以及多样化损失函数使训练样本分布均匀且包含更多特征信息,进而使替代模型高效学习目标模型的分类功能。对比DaST和MAZE,该方法在降低35%~60%的对抗扰动和查询次数的同时对CIFAR-100、CIFAR-10、SVHN、FMNIST、MNIST五个数据集的FGSM、BIM、PGD三种攻击的成功率平均提高6~10个百分点,并且在实际应用中的黑盒模型场景Microsoft Azure取得78%以上的攻击成功率。 展开更多
关键词 黑盒对抗攻击 生成对抗网络 替代训练 迁移攻击 深度神经网络
在线阅读 下载PDF
面向图像分析领域的黑盒对抗攻击技术综述 被引量:1
2
作者 武阳 刘靖 《计算机学报》 EI CAS CSCD 北大核心 2024年第5期1138-1178,共41页
图像领域下的黑盒攻击(Black-box Attack)已成为当前深度神经网络对抗攻击领域的热点研究方向.黑盒攻击的特点在于仅利用模型输入与输出的映射关系,而无需模型内部参数信息及梯度信息,通过向图像数据加入人类难以察觉的微小扰动,进而造... 图像领域下的黑盒攻击(Black-box Attack)已成为当前深度神经网络对抗攻击领域的热点研究方向.黑盒攻击的特点在于仅利用模型输入与输出的映射关系,而无需模型内部参数信息及梯度信息,通过向图像数据加入人类难以察觉的微小扰动,进而造成深度神经网络(Deep Neural Network,DNN)推理与识别失准,导致图像分析任务的准确率下降,因此由黑盒攻击引起的鲁棒性问题成为当前DNN模型研究的关键问题.为提高黑盒攻击在图像分析任务下的攻击成效,现有相关研究以低查询次数、低扰动幅度、高攻击成功率作为优化目标,针对不同图像分析任务采用不同的攻击模式与评估方式.本文以主流的图像分析任务为出发点,阐述图像分类、目标检测与图像分割三类任务中黑盒攻击算法的核心思想和难点,总结黑盒对抗攻击领域中的关键概念与评估指标,分析不同图像分析任务中黑盒对抗攻击的实现策略与研究目标.阐明各个黑盒攻击算法间的关系与优势,从攻击成功率、查询次数以及相似性度量等多个方面对不同的黑盒攻击算法进行性能比较,以提出目前图像分析领域中黑盒对抗攻击仍存在的主要挑战与未来研究方向. 展开更多
关键词 黑盒对抗攻击 深度神经网络 鲁棒性 图像分类 目标检测 图像分割
在线阅读 下载PDF
局部时间序列黑盒对抗攻击 被引量:2
3
作者 杨文博 原继东 《计算机科学》 CSCD 北大核心 2022年第10期285-290,共6页
用于时间序列分类的深度神经网络由于其自身对于对抗攻击的脆弱性,导致模型存在潜在的安全问题。现有的时间序列攻击方法均基于梯度信息进行全局扰动,生成的对抗样本易被察觉。为此,文中提出了一种不需要梯度信息的局部黑盒攻击方法。首... 用于时间序列分类的深度神经网络由于其自身对于对抗攻击的脆弱性,导致模型存在潜在的安全问题。现有的时间序列攻击方法均基于梯度信息进行全局扰动,生成的对抗样本易被察觉。为此,文中提出了一种不需要梯度信息的局部黑盒攻击方法。首先,对抗攻击被描述为一个约束优化问题,并假设不能获得被攻击模型的任何内部信息;然后利用遗传算法求解该问题;最后由于时间序列shapelets提供了不同类别间最具辨别力的信息,因此将其设计为局部扰动区间。实验结果表明,在有潜在安全隐患的UCR数据集上,所提方法可以有效地攻击深度神经网络并生成对抗样本。此外,所提算法相比基准算法在保持较高攻击成功率的同时显著降低了均方误差。 展开更多
关键词 黑盒对抗攻击 时间序列分类 局部扰动 遗传算法 Shapelet
在线阅读 下载PDF
拓扑自适应粒子群优化的黑盒对抗攻击 被引量:1
4
作者 于振华 康建寅 叶鸥 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2023年第8期1239-1248,共10页
深度学习模型在对抗攻击面前非常脆弱,即使对数据添加一个小的、感知上无法区分的扰动,也很容易降低其分类性能.针对现有黑盒对抗攻击方法存在效率低和成功率不高的问题,提出基于拓扑自适应粒子群优化的黑盒对抗攻击方法.首先根据原始... 深度学习模型在对抗攻击面前非常脆弱,即使对数据添加一个小的、感知上无法区分的扰动,也很容易降低其分类性能.针对现有黑盒对抗攻击方法存在效率低和成功率不高的问题,提出基于拓扑自适应粒子群优化的黑盒对抗攻击方法.首先根据原始图像随机生成初始对抗样本种群;然后根据邻域信息计算各样本的扰动并在搜索空间内迭代,计算动态惩罚项系数以控制样本的适应度值,当迭代多次种群适应度值未提高时,各样本进行邻域重分布,根据进化轨迹调整状态;最后修剪多余扰动获得最终的对抗样本.以InceptionV3等分类模型为攻击对象,使用MNIST,CIFAR-10和ImageNet数据集,在相同的样本数量和模型访问限制条件下,进行无目标对抗攻击和目标对抗攻击实验.结果表明,与现有方法相比,所提攻击方法具有较少的模型访问次数和较高的攻击成功率,对InceptionV3模型的平均访问次数为2 502,攻击成功率为94.30%. 展开更多
关键词 深度学习 粒子群优化 黑盒对抗攻击 邻域重分布 对抗样本
在线阅读 下载PDF
基于特征拓扑融合的黑盒图对抗攻击
5
作者 郭宇星 姚凯旋 +2 位作者 王智强 温亮亮 梁吉业 《计算机科学》 CSCD 北大核心 2024年第1期355-362,共8页
在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大... 在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大的成功。最近人工智能的安全性和可信性成为了人们关注的重点,很多工作主要针对图像等规则数据的深度学习对抗攻击。文中主要聚焦于图数据这种典型非欧氏结构的黑盒对抗攻击问题,在图神经网络模型信息(结构、参数)未知的情况下,对图数据进行非随机微小扰动,从而实现对模型的对抗攻击,模型性能随之下降。基于节点选择的对抗攻击策略是一类重要的黑盒图对抗攻击方法,但现有方法在选择对抗攻击节点时主要依靠节点的拓扑结构信息(如度信息)而未充分考虑节点的特征信息,文中面向引文网络提出了一种基于特征拓扑融合的黑盒图对抗攻击方法。所提方法在选择重要性节点的过程中将图节点特征信息和拓扑结构信息进行融合,使得选出的节点在特征和拓扑两方面对于图数据都是重要的,攻击者对挑选出的重要节点施加不易察觉的扰动后对图数据产生了较大影响,进而实现对图神经网络模型的攻击。在3个基准数据集上进行实验,结果表明,所提出的攻击策略在模型参数未知的情况下能显著降低模型性能,且攻击效果优于现有的方法。 展开更多
关键词 图神经网络 黑盒对抗攻击 信息熵 节点重要性 引文网络
在线阅读 下载PDF
采用GAN的肺部疾病诊断模型黑盒可迁移性对抗攻击方法
6
作者 王小银 王丹 +1 位作者 孙家泽 杨宜康 《西安交通大学学报》 EI CAS CSCD 北大核心 2023年第10期196-206,220,共12页
针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和... 针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和金字塔分割注意力机制,以提高网络在更细粒度上的多尺度特征表达能力;设置带有辅助分类器的判别器对样本进行正确分类,并且添加攻击者实施对抗训练,以增强对抗样本的攻击能力和稳定GAN的训练。运用无数据黑盒对抗攻击框架训练替代模型,实现可迁移性对抗攻击,获得高黑盒攻击成功率。所提方法在目标攻击和无目标攻击任务下的对抗攻击成功率分别达到了68.95%和79.34%,与其他黑盒场景下基于GAN的对抗方法相比,迁移攻击成功率更高,且生成的对抗样本更接近真实样本。所提方法解决了传统基于GAN的攻击方法难以捕获肺部影像细节特征而导致无法获得更优的对抗性能的问题,对在实际应用场景下提高肺部疾病诊断模型的安全性和鲁棒性提供了参考方案。 展开更多
关键词 肺部疾病诊断模型 黑盒对抗攻击 生成对抗网络 可迁移性
在线阅读 下载PDF
多约束引导的中文对抗样本生成 被引量:3
7
作者 韩子屹 王巍 玄世昌 《中文信息学报》 CSCD 北大核心 2023年第2期41-52,共12页
深度神经网络(DNN)已经被广泛应用于图像识别和自然语言处理等各个领域。近年来的研究表明,向DNN模型输入包含微小扰动的样本后,很容易对其输出结果造成严重破坏,这样处理过的样本被称为对抗样本。但中文对抗样本生成领域一直面临着一... 深度神经网络(DNN)已经被广泛应用于图像识别和自然语言处理等各个领域。近年来的研究表明,向DNN模型输入包含微小扰动的样本后,很容易对其输出结果造成严重破坏,这样处理过的样本被称为对抗样本。但中文对抗样本生成领域一直面临着一个严重问题,攻击成功率和对抗样本的可读性难以兼得。该文提出了一种在对抗样本生成的不同阶段,对对抗样本进行视觉相似度和语义相似度进行约束的对抗攻击方法MCGC。MCGC生成的对抗样本不但具有良好的可读性,且在针对Text-CNN、Bi-LSTM、BERT-Chinese等多个模型的定向和非定向攻击可以达到90%左右的攻击成功率。同时,该文还研究了以BERT-Chinese为代表的掩码语言模型(MLM)和传统自然语言处理模型在鲁棒性上的差异表现。 展开更多
关键词 字形相似度评估 语义相似度控制 黑盒对抗攻击
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部