期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
7
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于GAN的无数据黑盒对抗攻击方法
1
作者
赵恩浩
凌捷
《计算机工程与应用》
北大核心
2025年第7期204-212,共9页
对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗...
对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗攻击方法。无需目标模型的训练数据,使用混合标签信息的噪声生成替代模型所需的训练样本,通过目标模型的标记信息以及多样化损失函数使训练样本分布均匀且包含更多特征信息,进而使替代模型高效学习目标模型的分类功能。对比DaST和MAZE,该方法在降低35%~60%的对抗扰动和查询次数的同时对CIFAR-100、CIFAR-10、SVHN、FMNIST、MNIST五个数据集的FGSM、BIM、PGD三种攻击的成功率平均提高6~10个百分点,并且在实际应用中的黑盒模型场景Microsoft Azure取得78%以上的攻击成功率。
展开更多
关键词
黑盒对抗攻击
生成
对抗
网络
替代训练
迁移
攻击
深度神经网络
在线阅读
下载PDF
职称材料
面向图像分析领域的黑盒对抗攻击技术综述
被引量:
1
2
作者
武阳
刘靖
《计算机学报》
EI
CAS
CSCD
北大核心
2024年第5期1138-1178,共41页
图像领域下的黑盒攻击(Black-box Attack)已成为当前深度神经网络对抗攻击领域的热点研究方向.黑盒攻击的特点在于仅利用模型输入与输出的映射关系,而无需模型内部参数信息及梯度信息,通过向图像数据加入人类难以察觉的微小扰动,进而造...
图像领域下的黑盒攻击(Black-box Attack)已成为当前深度神经网络对抗攻击领域的热点研究方向.黑盒攻击的特点在于仅利用模型输入与输出的映射关系,而无需模型内部参数信息及梯度信息,通过向图像数据加入人类难以察觉的微小扰动,进而造成深度神经网络(Deep Neural Network,DNN)推理与识别失准,导致图像分析任务的准确率下降,因此由黑盒攻击引起的鲁棒性问题成为当前DNN模型研究的关键问题.为提高黑盒攻击在图像分析任务下的攻击成效,现有相关研究以低查询次数、低扰动幅度、高攻击成功率作为优化目标,针对不同图像分析任务采用不同的攻击模式与评估方式.本文以主流的图像分析任务为出发点,阐述图像分类、目标检测与图像分割三类任务中黑盒攻击算法的核心思想和难点,总结黑盒对抗攻击领域中的关键概念与评估指标,分析不同图像分析任务中黑盒对抗攻击的实现策略与研究目标.阐明各个黑盒攻击算法间的关系与优势,从攻击成功率、查询次数以及相似性度量等多个方面对不同的黑盒攻击算法进行性能比较,以提出目前图像分析领域中黑盒对抗攻击仍存在的主要挑战与未来研究方向.
展开更多
关键词
黑盒对抗攻击
深度神经网络
鲁棒性
图像分类
目标检测
图像分割
在线阅读
下载PDF
职称材料
局部时间序列黑盒对抗攻击
被引量:
2
3
作者
杨文博
原继东
《计算机科学》
CSCD
北大核心
2022年第10期285-290,共6页
用于时间序列分类的深度神经网络由于其自身对于对抗攻击的脆弱性,导致模型存在潜在的安全问题。现有的时间序列攻击方法均基于梯度信息进行全局扰动,生成的对抗样本易被察觉。为此,文中提出了一种不需要梯度信息的局部黑盒攻击方法。首...
用于时间序列分类的深度神经网络由于其自身对于对抗攻击的脆弱性,导致模型存在潜在的安全问题。现有的时间序列攻击方法均基于梯度信息进行全局扰动,生成的对抗样本易被察觉。为此,文中提出了一种不需要梯度信息的局部黑盒攻击方法。首先,对抗攻击被描述为一个约束优化问题,并假设不能获得被攻击模型的任何内部信息;然后利用遗传算法求解该问题;最后由于时间序列shapelets提供了不同类别间最具辨别力的信息,因此将其设计为局部扰动区间。实验结果表明,在有潜在安全隐患的UCR数据集上,所提方法可以有效地攻击深度神经网络并生成对抗样本。此外,所提算法相比基准算法在保持较高攻击成功率的同时显著降低了均方误差。
展开更多
关键词
黑盒对抗攻击
时间序列分类
局部扰动
遗传算法
Shapelet
在线阅读
下载PDF
职称材料
拓扑自适应粒子群优化的黑盒对抗攻击
被引量:
1
4
作者
于振华
康建寅
叶鸥
《计算机辅助设计与图形学学报》
EI
CSCD
北大核心
2023年第8期1239-1248,共10页
深度学习模型在对抗攻击面前非常脆弱,即使对数据添加一个小的、感知上无法区分的扰动,也很容易降低其分类性能.针对现有黑盒对抗攻击方法存在效率低和成功率不高的问题,提出基于拓扑自适应粒子群优化的黑盒对抗攻击方法.首先根据原始...
深度学习模型在对抗攻击面前非常脆弱,即使对数据添加一个小的、感知上无法区分的扰动,也很容易降低其分类性能.针对现有黑盒对抗攻击方法存在效率低和成功率不高的问题,提出基于拓扑自适应粒子群优化的黑盒对抗攻击方法.首先根据原始图像随机生成初始对抗样本种群;然后根据邻域信息计算各样本的扰动并在搜索空间内迭代,计算动态惩罚项系数以控制样本的适应度值,当迭代多次种群适应度值未提高时,各样本进行邻域重分布,根据进化轨迹调整状态;最后修剪多余扰动获得最终的对抗样本.以InceptionV3等分类模型为攻击对象,使用MNIST,CIFAR-10和ImageNet数据集,在相同的样本数量和模型访问限制条件下,进行无目标对抗攻击和目标对抗攻击实验.结果表明,与现有方法相比,所提攻击方法具有较少的模型访问次数和较高的攻击成功率,对InceptionV3模型的平均访问次数为2 502,攻击成功率为94.30%.
展开更多
关键词
深度学习
粒子群优化
黑盒对抗攻击
邻域重分布
对抗
样本
在线阅读
下载PDF
职称材料
基于特征拓扑融合的黑盒图对抗攻击
5
作者
郭宇星
姚凯旋
+2 位作者
王智强
温亮亮
梁吉业
《计算机科学》
CSCD
北大核心
2024年第1期355-362,共8页
在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大...
在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大的成功。最近人工智能的安全性和可信性成为了人们关注的重点,很多工作主要针对图像等规则数据的深度学习对抗攻击。文中主要聚焦于图数据这种典型非欧氏结构的黑盒对抗攻击问题,在图神经网络模型信息(结构、参数)未知的情况下,对图数据进行非随机微小扰动,从而实现对模型的对抗攻击,模型性能随之下降。基于节点选择的对抗攻击策略是一类重要的黑盒图对抗攻击方法,但现有方法在选择对抗攻击节点时主要依靠节点的拓扑结构信息(如度信息)而未充分考虑节点的特征信息,文中面向引文网络提出了一种基于特征拓扑融合的黑盒图对抗攻击方法。所提方法在选择重要性节点的过程中将图节点特征信息和拓扑结构信息进行融合,使得选出的节点在特征和拓扑两方面对于图数据都是重要的,攻击者对挑选出的重要节点施加不易察觉的扰动后对图数据产生了较大影响,进而实现对图神经网络模型的攻击。在3个基准数据集上进行实验,结果表明,所提出的攻击策略在模型参数未知的情况下能显著降低模型性能,且攻击效果优于现有的方法。
展开更多
关键词
图神经网络
黑盒对抗攻击
信息熵
节点重要性
引文网络
在线阅读
下载PDF
职称材料
采用GAN的肺部疾病诊断模型黑盒可迁移性对抗攻击方法
6
作者
王小银
王丹
+1 位作者
孙家泽
杨宜康
《西安交通大学学报》
EI
CAS
CSCD
北大核心
2023年第10期196-206,220,共12页
针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和...
针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和金字塔分割注意力机制,以提高网络在更细粒度上的多尺度特征表达能力;设置带有辅助分类器的判别器对样本进行正确分类,并且添加攻击者实施对抗训练,以增强对抗样本的攻击能力和稳定GAN的训练。运用无数据黑盒对抗攻击框架训练替代模型,实现可迁移性对抗攻击,获得高黑盒攻击成功率。所提方法在目标攻击和无目标攻击任务下的对抗攻击成功率分别达到了68.95%和79.34%,与其他黑盒场景下基于GAN的对抗方法相比,迁移攻击成功率更高,且生成的对抗样本更接近真实样本。所提方法解决了传统基于GAN的攻击方法难以捕获肺部影像细节特征而导致无法获得更优的对抗性能的问题,对在实际应用场景下提高肺部疾病诊断模型的安全性和鲁棒性提供了参考方案。
展开更多
关键词
肺部疾病诊断模型
黑盒对抗攻击
生成
对抗
网络
可迁移性
在线阅读
下载PDF
职称材料
多约束引导的中文对抗样本生成
被引量:
3
7
作者
韩子屹
王巍
玄世昌
《中文信息学报》
CSCD
北大核心
2023年第2期41-52,共12页
深度神经网络(DNN)已经被广泛应用于图像识别和自然语言处理等各个领域。近年来的研究表明,向DNN模型输入包含微小扰动的样本后,很容易对其输出结果造成严重破坏,这样处理过的样本被称为对抗样本。但中文对抗样本生成领域一直面临着一...
深度神经网络(DNN)已经被广泛应用于图像识别和自然语言处理等各个领域。近年来的研究表明,向DNN模型输入包含微小扰动的样本后,很容易对其输出结果造成严重破坏,这样处理过的样本被称为对抗样本。但中文对抗样本生成领域一直面临着一个严重问题,攻击成功率和对抗样本的可读性难以兼得。该文提出了一种在对抗样本生成的不同阶段,对对抗样本进行视觉相似度和语义相似度进行约束的对抗攻击方法MCGC。MCGC生成的对抗样本不但具有良好的可读性,且在针对Text-CNN、Bi-LSTM、BERT-Chinese等多个模型的定向和非定向攻击可以达到90%左右的攻击成功率。同时,该文还研究了以BERT-Chinese为代表的掩码语言模型(MLM)和传统自然语言处理模型在鲁棒性上的差异表现。
展开更多
关键词
字形相似度评估
语义相似度控制
黑盒对抗攻击
在线阅读
下载PDF
职称材料
题名
基于GAN的无数据黑盒对抗攻击方法
1
作者
赵恩浩
凌捷
机构
广东工业大学计算机学院
出处
《计算机工程与应用》
北大核心
2025年第7期204-212,共9页
基金
广州市重点领域研发计划项目(202007010004)。
文摘
对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗攻击方法。无需目标模型的训练数据,使用混合标签信息的噪声生成替代模型所需的训练样本,通过目标模型的标记信息以及多样化损失函数使训练样本分布均匀且包含更多特征信息,进而使替代模型高效学习目标模型的分类功能。对比DaST和MAZE,该方法在降低35%~60%的对抗扰动和查询次数的同时对CIFAR-100、CIFAR-10、SVHN、FMNIST、MNIST五个数据集的FGSM、BIM、PGD三种攻击的成功率平均提高6~10个百分点,并且在实际应用中的黑盒模型场景Microsoft Azure取得78%以上的攻击成功率。
关键词
黑盒对抗攻击
生成
对抗
网络
替代训练
迁移
攻击
深度神经网络
Keywords
black-box adversarial attack
generative adversarial network
substitute training
transfer attack
deep neural network
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
面向图像分析领域的黑盒对抗攻击技术综述
被引量:
1
2
作者
武阳
刘靖
机构
内蒙古大学计算机学院
出处
《计算机学报》
EI
CAS
CSCD
北大核心
2024年第5期1138-1178,共41页
基金
国家自然科学基金(61662051)
内蒙古科技计划项目(2020GG0187)
内蒙古自然科学基金重点项目(2023ZD18)资助.
文摘
图像领域下的黑盒攻击(Black-box Attack)已成为当前深度神经网络对抗攻击领域的热点研究方向.黑盒攻击的特点在于仅利用模型输入与输出的映射关系,而无需模型内部参数信息及梯度信息,通过向图像数据加入人类难以察觉的微小扰动,进而造成深度神经网络(Deep Neural Network,DNN)推理与识别失准,导致图像分析任务的准确率下降,因此由黑盒攻击引起的鲁棒性问题成为当前DNN模型研究的关键问题.为提高黑盒攻击在图像分析任务下的攻击成效,现有相关研究以低查询次数、低扰动幅度、高攻击成功率作为优化目标,针对不同图像分析任务采用不同的攻击模式与评估方式.本文以主流的图像分析任务为出发点,阐述图像分类、目标检测与图像分割三类任务中黑盒攻击算法的核心思想和难点,总结黑盒对抗攻击领域中的关键概念与评估指标,分析不同图像分析任务中黑盒对抗攻击的实现策略与研究目标.阐明各个黑盒攻击算法间的关系与优势,从攻击成功率、查询次数以及相似性度量等多个方面对不同的黑盒攻击算法进行性能比较,以提出目前图像分析领域中黑盒对抗攻击仍存在的主要挑战与未来研究方向.
关键词
黑盒对抗攻击
深度神经网络
鲁棒性
图像分类
目标检测
图像分割
Keywords
black-box adversarial attack
deep neural network
robustness
image classification
object detection
image segmentation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
局部时间序列黑盒对抗攻击
被引量:
2
3
作者
杨文博
原继东
机构
北京交通大学计算机与信息技术学院
交通数据分析与挖掘北京市重点实验室(北京交通大学)
出处
《计算机科学》
CSCD
北大核心
2022年第10期285-290,共6页
基金
科技创新2030-“新一代人工智能”重大项目(2021ZD0113002)
北京市自然科学基金(4214067)
国家自然科学基金(61702030)。
文摘
用于时间序列分类的深度神经网络由于其自身对于对抗攻击的脆弱性,导致模型存在潜在的安全问题。现有的时间序列攻击方法均基于梯度信息进行全局扰动,生成的对抗样本易被察觉。为此,文中提出了一种不需要梯度信息的局部黑盒攻击方法。首先,对抗攻击被描述为一个约束优化问题,并假设不能获得被攻击模型的任何内部信息;然后利用遗传算法求解该问题;最后由于时间序列shapelets提供了不同类别间最具辨别力的信息,因此将其设计为局部扰动区间。实验结果表明,在有潜在安全隐患的UCR数据集上,所提方法可以有效地攻击深度神经网络并生成对抗样本。此外,所提算法相比基准算法在保持较高攻击成功率的同时显著降低了均方误差。
关键词
黑盒对抗攻击
时间序列分类
局部扰动
遗传算法
Shapelet
Keywords
Black-box adversarial attack
Time series classification
Local perturbations
Genetic algorithm
Shapelet
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
拓扑自适应粒子群优化的黑盒对抗攻击
被引量:
1
4
作者
于振华
康建寅
叶鸥
机构
西安科技大学计算机科学与技术学院
出处
《计算机辅助设计与图形学学报》
EI
CSCD
北大核心
2023年第8期1239-1248,共10页
基金
国家自然科学基金(61873277)。
文摘
深度学习模型在对抗攻击面前非常脆弱,即使对数据添加一个小的、感知上无法区分的扰动,也很容易降低其分类性能.针对现有黑盒对抗攻击方法存在效率低和成功率不高的问题,提出基于拓扑自适应粒子群优化的黑盒对抗攻击方法.首先根据原始图像随机生成初始对抗样本种群;然后根据邻域信息计算各样本的扰动并在搜索空间内迭代,计算动态惩罚项系数以控制样本的适应度值,当迭代多次种群适应度值未提高时,各样本进行邻域重分布,根据进化轨迹调整状态;最后修剪多余扰动获得最终的对抗样本.以InceptionV3等分类模型为攻击对象,使用MNIST,CIFAR-10和ImageNet数据集,在相同的样本数量和模型访问限制条件下,进行无目标对抗攻击和目标对抗攻击实验.结果表明,与现有方法相比,所提攻击方法具有较少的模型访问次数和较高的攻击成功率,对InceptionV3模型的平均访问次数为2 502,攻击成功率为94.30%.
关键词
深度学习
粒子群优化
黑盒对抗攻击
邻域重分布
对抗
样本
Keywords
deep learning
particle swarm optimization
black-box adversarial attack
neighborhood redistribu-tion
adversarial example
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于特征拓扑融合的黑盒图对抗攻击
5
作者
郭宇星
姚凯旋
王智强
温亮亮
梁吉业
机构
山西大学计算机与信息技术学院
计算智能与中文信息处理教育部重点实验室(山西大学)
出处
《计算机科学》
CSCD
北大核心
2024年第1期355-362,共8页
基金
国家自然科学基金(62272285,U21A20473)。
文摘
在大数据时代,数据之间的紧密关联性是普遍存在的,图数据分析挖掘已经成为大数据技术的重要发展趋势。近几年,图神经网络作为一种新型的图表示学习工具引起了学术界和工业界的广泛关注。目前图神经网络已经在很多实际应用中取得了巨大的成功。最近人工智能的安全性和可信性成为了人们关注的重点,很多工作主要针对图像等规则数据的深度学习对抗攻击。文中主要聚焦于图数据这种典型非欧氏结构的黑盒对抗攻击问题,在图神经网络模型信息(结构、参数)未知的情况下,对图数据进行非随机微小扰动,从而实现对模型的对抗攻击,模型性能随之下降。基于节点选择的对抗攻击策略是一类重要的黑盒图对抗攻击方法,但现有方法在选择对抗攻击节点时主要依靠节点的拓扑结构信息(如度信息)而未充分考虑节点的特征信息,文中面向引文网络提出了一种基于特征拓扑融合的黑盒图对抗攻击方法。所提方法在选择重要性节点的过程中将图节点特征信息和拓扑结构信息进行融合,使得选出的节点在特征和拓扑两方面对于图数据都是重要的,攻击者对挑选出的重要节点施加不易察觉的扰动后对图数据产生了较大影响,进而实现对图神经网络模型的攻击。在3个基准数据集上进行实验,结果表明,所提出的攻击策略在模型参数未知的情况下能显著降低模型性能,且攻击效果优于现有的方法。
关键词
图神经网络
黑盒对抗攻击
信息熵
节点重要性
引文网络
Keywords
Graph neural networks
Black-box adversarial attack
Information entropy
Node importance
Citation network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
采用GAN的肺部疾病诊断模型黑盒可迁移性对抗攻击方法
6
作者
王小银
王丹
孙家泽
杨宜康
机构
西安邮电大学计算机学院
西安邮电大学陕西省网络数据分析与智能处理重点实验室
西安交通大学自动化科学与工程学院
出处
《西安交通大学学报》
EI
CAS
CSCD
北大核心
2023年第10期196-206,220,共12页
基金
陕西省重点研发计划资助项目(2023-YBGY-204,2023-YBGY-030)
西安市重点产业链核心技术攻关项目(人工智能领域)(2022JH-RGZN-0028)。
文摘
针对现有对抗攻击方法在黑盒场景下攻击成功率不高以及生成质量低等问题,提出了一种基于生成对抗网络(GAN)的肺部疾病诊断模型黑盒可迁移性对抗攻击方法。以肺部医学影像为基础,依托残差神经网络,在生成器中设计基于扩张卷积的残差块和金字塔分割注意力机制,以提高网络在更细粒度上的多尺度特征表达能力;设置带有辅助分类器的判别器对样本进行正确分类,并且添加攻击者实施对抗训练,以增强对抗样本的攻击能力和稳定GAN的训练。运用无数据黑盒对抗攻击框架训练替代模型,实现可迁移性对抗攻击,获得高黑盒攻击成功率。所提方法在目标攻击和无目标攻击任务下的对抗攻击成功率分别达到了68.95%和79.34%,与其他黑盒场景下基于GAN的对抗方法相比,迁移攻击成功率更高,且生成的对抗样本更接近真实样本。所提方法解决了传统基于GAN的攻击方法难以捕获肺部影像细节特征而导致无法获得更优的对抗性能的问题,对在实际应用场景下提高肺部疾病诊断模型的安全性和鲁棒性提供了参考方案。
关键词
肺部疾病诊断模型
黑盒对抗攻击
生成
对抗
网络
可迁移性
Keywords
lung disease diagnosis model
black-box adversarial attack
generative adversarial network
transferability
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
多约束引导的中文对抗样本生成
被引量:
3
7
作者
韩子屹
王巍
玄世昌
机构
哈尔滨工程大学计算机科学与技术学院
出处
《中文信息学报》
CSCD
北大核心
2023年第2期41-52,共12页
基金
NSFC-新疆联合基金(U2003206)
国家自然科学基金(61972255)
+1 种基金
中央高校基本科研业务费专项资金(GK2060260303)
黑龙江省重点研发计划项目(GA21C020)。
文摘
深度神经网络(DNN)已经被广泛应用于图像识别和自然语言处理等各个领域。近年来的研究表明,向DNN模型输入包含微小扰动的样本后,很容易对其输出结果造成严重破坏,这样处理过的样本被称为对抗样本。但中文对抗样本生成领域一直面临着一个严重问题,攻击成功率和对抗样本的可读性难以兼得。该文提出了一种在对抗样本生成的不同阶段,对对抗样本进行视觉相似度和语义相似度进行约束的对抗攻击方法MCGC。MCGC生成的对抗样本不但具有良好的可读性,且在针对Text-CNN、Bi-LSTM、BERT-Chinese等多个模型的定向和非定向攻击可以达到90%左右的攻击成功率。同时,该文还研究了以BERT-Chinese为代表的掩码语言模型(MLM)和传统自然语言处理模型在鲁棒性上的差异表现。
关键词
字形相似度评估
语义相似度控制
黑盒对抗攻击
Keywords
glyph similarity evaluation
semantic similarity control
black-box adversarial attack
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于GAN的无数据黑盒对抗攻击方法
赵恩浩
凌捷
《计算机工程与应用》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
面向图像分析领域的黑盒对抗攻击技术综述
武阳
刘靖
《计算机学报》
EI
CAS
CSCD
北大核心
2024
1
在线阅读
下载PDF
职称材料
3
局部时间序列黑盒对抗攻击
杨文博
原继东
《计算机科学》
CSCD
北大核心
2022
2
在线阅读
下载PDF
职称材料
4
拓扑自适应粒子群优化的黑盒对抗攻击
于振华
康建寅
叶鸥
《计算机辅助设计与图形学学报》
EI
CSCD
北大核心
2023
1
在线阅读
下载PDF
职称材料
5
基于特征拓扑融合的黑盒图对抗攻击
郭宇星
姚凯旋
王智强
温亮亮
梁吉业
《计算机科学》
CSCD
北大核心
2024
0
在线阅读
下载PDF
职称材料
6
采用GAN的肺部疾病诊断模型黑盒可迁移性对抗攻击方法
王小银
王丹
孙家泽
杨宜康
《西安交通大学学报》
EI
CAS
CSCD
北大核心
2023
0
在线阅读
下载PDF
职称材料
7
多约束引导的中文对抗样本生成
韩子屹
王巍
玄世昌
《中文信息学报》
CSCD
北大核心
2023
3
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部