期刊文献+
共找到243篇文章
< 1 2 13 >
每页显示 20 50 100
面向深度模型的对抗攻击与对抗防御技术综述 被引量:6
1
作者 王文萱 汪成磊 +2 位作者 齐慧慧 叶梦昊 张艳宁 《信号处理》 北大核心 2025年第2期198-223,共26页
深度学习技术已广泛应用于图像分类和目标检测等计算机视觉核心任务,并取得了瞩目的进展。然而,深度学习模型因其高度的复杂性与内在的不确定性,极易成为对抗样本攻击的靶标。攻击者巧妙地利用数据中细微的、精心设计的扰动,诱导模型以... 深度学习技术已广泛应用于图像分类和目标检测等计算机视觉核心任务,并取得了瞩目的进展。然而,深度学习模型因其高度的复杂性与内在的不确定性,极易成为对抗样本攻击的靶标。攻击者巧妙地利用数据中细微的、精心设计的扰动,诱导模型以极高的置信度输出错误结果,此类对抗样本对实际应用场景中模型的可靠性及安全性构成了严峻的挑战与潜在威胁。例如,攻击者可利用对抗眼镜误导人脸识别系统,导致身份误判,进而实施非法入侵、身份冒用等威胁公共安全和个人隐私的行为;也可对自动驾驶系统的监控数据添加对抗噪声,虽不破坏交通工具本身特征,却可能导致漏检重要交通工具,引发交通混乱甚至事故,造成严重后果。本文旨在梳理当前对抗攻击与对抗防御技术的研究现状。具体而言,内容涵盖以下三个方面:1)在概述对抗样本基本概念和分类的基础上,剖析了多种对抗攻击的形式和策略,并举例介绍了具有代表性的经典对抗样本生成方法;2)阐述对抗样本的防御方法,从模型优化、数据优化和附加网络三个方向系统梳理了当前提高模型对抗鲁棒性的各类算法,分析了各类防御方法的创新性和有效性;3)介绍对抗攻击和对抗防御的应用实例,阐述了大模型时代对抗攻击和防御的发展现状,分析了在实际应用中遇到的挑战及解决方案。最后本文对当前对抗攻击与防御方法进行了总结分析,并展望了该领域内未来的研究方向。 展开更多
关键词 对抗攻击 对抗防御 深度学习 计算机视觉 可信人工智能
在线阅读 下载PDF
基于深度神经网络的遗传算法对抗攻击 被引量:1
2
作者 范海菊 马锦程 李名 《河南师范大学学报(自然科学版)》 北大核心 2025年第2期82-90,I0007,共10页
深度神经网络(deep neural network,DNN)能够取得良好的分类识别效果,但在训练图像中添加微小扰动进行对抗攻击,其识别准确率会大大下降.在提出的方法中,通过遗传算法得到最优扰动后,修改图像极少的像素生成对抗样本,实现对VGG16等3个... 深度神经网络(deep neural network,DNN)能够取得良好的分类识别效果,但在训练图像中添加微小扰动进行对抗攻击,其识别准确率会大大下降.在提出的方法中,通过遗传算法得到最优扰动后,修改图像极少的像素生成对抗样本,实现对VGG16等3个基于卷积神经网络图像分类器的成功攻击.实验结果表明在对3个分类模型进行单像素攻击时,67.92%的CIFAR-10数据集中的自然图像可以被扰动到至少一个目标类,平均置信度为79.57%,攻击效果会随着修改像素的增加进一步提升.此外,相比于LSA和FGSM方法,攻击效果有着显著提升. 展开更多
关键词 卷积神经网络 遗传算法 对抗攻击 图像分类 信息安全
在线阅读 下载PDF
面向主机入侵检测的多视图对抗攻击防御方法
3
作者 王飞 钱可涵 +2 位作者 吕明琪 朱添田 陈鸿龙 《通信学报》 北大核心 2025年第8期53-65,共13页
主机入侵检测(HID)旨在通过分析主机日志识别攻击行为。针对图神经网络模型在主机入侵检测中易受对抗攻击的问题,提出一种多视图对抗防御方法。通过构建结构与行为双视图以融合多维特征,筛选低迁移性互补模型对,并设计分级投票机制集成... 主机入侵检测(HID)旨在通过分析主机日志识别攻击行为。针对图神经网络模型在主机入侵检测中易受对抗攻击的问题,提出一种多视图对抗防御方法。通过构建结构与行为双视图以融合多维特征,筛选低迁移性互补模型对,并设计分级投票机制集成异构模型决策,从而提升检测鲁棒性。基于真实的主机内核日志数据集对该方法进行了评测,实验结果表明,该方法优于现有的对抗攻击防御方法,在典型对抗攻击下的恶意节点召回率达到80%以上,较现有单模型防御方法提升约23%,且误报率控制在10%以内,验证了基于迁移性分析的融合策略对增强鲁棒性的有效性。 展开更多
关键词 对抗攻击 主机入侵检测 溯源图 多模型集成
在线阅读 下载PDF
面向信号调制识别的对抗攻击与防御综述
4
作者 徐冬月 田蕴哲 +6 位作者 陈康 李轶珂 吴亚伦 童恩栋 牛温佳 刘吉强 史忠植 《计算机研究与发展》 北大核心 2025年第7期1713-1737,共25页
随着深度学习的飞速发展,基于深度神经网络的信号调制识别任务成为无线通信领域热门研究.研究发现,深度神经网络模型极易受到对抗性扰动的影响,使调制识别任务失效.目前面向无线通信安全性的研究工作仍存在些许瓶颈问题与理论空白,源于... 随着深度学习的飞速发展,基于深度神经网络的信号调制识别任务成为无线通信领域热门研究.研究发现,深度神经网络模型极易受到对抗性扰动的影响,使调制识别任务失效.目前面向无线通信安全性的研究工作仍存在些许瓶颈问题与理论空白,源于无线通信固有的实验环境、数据结构与信号特征等多维度特性,不能将其他领域较为成熟的攻防方法简单迁移到信号对抗攻击中.面向信号调制识别领域的对抗攻防,总结该领域对抗攻击与防御技术研究工作,提出信号调制识别领域的通用对抗攻击分类框架与威胁模型,将该领域研究工作分类为物理自我防御式攻击和数字直接访问式攻击,并以2维图形式进行系统化整合与可视化展示,详细阐述对抗攻击方法、对抗样本生成技术与理论公式、对抗检测与防御技术最新的研究工作,系统提炼无线通信对抗攻击研究的3个维度特性并归纳相应的处理方法,最后总结面向信号调制识别的攻防安全领域在未来的研究发展方向. 展开更多
关键词 深度神经网络 无线通信 信号调制识别 对抗攻击 防御
在线阅读 下载PDF
面向图垂直联邦学习的对抗攻击方法
5
作者 柏杨 陈晋音 +1 位作者 郑海斌 郑雅羽 《计算机科学》 北大核心 2025年第S2期829-838,共10页
图垂直联邦学习是一种结合图数据和垂直联邦学习的分布式机器学习方法,广泛应用于金融服务、医疗健康和社交网络等领域。该方法在保护隐私的同时,利用数据多样性显著提升模型性能。然而,研究表明图垂直联邦学习容易受到对抗攻击的威胁... 图垂直联邦学习是一种结合图数据和垂直联邦学习的分布式机器学习方法,广泛应用于金融服务、医疗健康和社交网络等领域。该方法在保护隐私的同时,利用数据多样性显著提升模型性能。然而,研究表明图垂直联邦学习容易受到对抗攻击的威胁。现有的针对图神经网络的对抗攻击方法,如梯度最大化攻击、简化梯度攻击等方法在图垂直联邦框架中实施时仍然面临攻击成功率低、隐蔽性差、在防御情况下无法实施等问题。为应对这些挑战,提出了一种面向图垂直联邦的对抗攻击方法(Node and Feature Adversarial Attack,NFAttack),该方法分别设计了节点攻击策略与特征攻击策略,从不同维度实施高效攻击。首先,节点攻击策略基于度中心性指标评估节点的重要性,通过连接一定数量的虚假节点以形成虚假边,从而干扰高中心性节点。其次,特征攻击策略在节点特征中注入由随机噪声与梯度噪声构成的混合噪声,进而扰乱分类结果。最后,在6个数据集和3种图神经网络模型上进行实验,结果表明NFAttack的平均攻击成功率达到80%,比其他算法提高了约30%。此外,即使在多种联邦学习防御机制下,NFAttack仍展现出较强的攻击效果。 展开更多
关键词 垂直联邦学习 图神经网络 图数据 节点分类 对抗攻击
在线阅读 下载PDF
针对音频识别的物理世界音素对抗攻击
6
作者 王嘉凯 孔宇升 +5 位作者 陈镇东 胡琎 尹子鑫 马宇晴 杨晴虹 刘祥龙 《计算机研究与发展》 北大核心 2025年第3期751-764,共14页
语音识别等智能技术在自动驾驶、物联网等场景下得到了广泛的应用.近年来,针对语音识别的对抗攻击研究逐渐受到关注.然而,现有的大多数研究主要依赖于粗粒度的音频特征来在实例级别生成对抗噪声,这导致生成时间成本高昂且攻击能力弱.考... 语音识别等智能技术在自动驾驶、物联网等场景下得到了广泛的应用.近年来,针对语音识别的对抗攻击研究逐渐受到关注.然而,现有的大多数研究主要依赖于粗粒度的音频特征来在实例级别生成对抗噪声,这导致生成时间成本高昂且攻击能力弱.考虑到所有语音可以被视为基本音素的不同组合,提出了一个基于音素的通用对抗攻击方法——音素对抗噪声(phonemic adversarial noise,PAN),该方法通过攻击在音频数据中普遍存在的音素级别的细粒度音频特征,以生成音素级对抗噪声,取得了更快的对抗噪声生成速度并具备更强的通用攻击能力.为了全面地评估所提出的PAN框架,在实验中基于Libri Speech等多种语音识别任务中被广泛采用的公开数据集,对提出的音素对抗噪声的攻击有效性、跨数据集的泛化能力、跨模型迁移攻击能力和跨任务迁移攻击能力进行了验证,并进一步在物理世界设备中证实了对民用智能音频识别应用的攻击效果.实验结果表明,所提出的方法比其他对比方法的攻击能力提高了38%,生成速度快了24倍以上,且提出的采样策略和学习方法对降低训练时间和提升攻击能力具有重要作用. 展开更多
关键词 人工智能安全 对抗攻击 音频识别 物理攻击 音素对抗噪声
在线阅读 下载PDF
基于雅可比显著图的电磁信号无目标平滑对抗攻击方法
7
作者 王梓聪 张剑 《系统工程与电子技术》 北大核心 2025年第7期2127-2135,共9页
针对生成电磁信号对抗样本隐蔽性不足的问题,提出一种基于雅可比显著图的电磁信号无目标平滑对抗攻击方法(electromagnetic signal no-targeted smooth adversarial attack method based on Jacobian saliency map,NTSA)。该方法平衡对... 针对生成电磁信号对抗样本隐蔽性不足的问题,提出一种基于雅可比显著图的电磁信号无目标平滑对抗攻击方法(electromagnetic signal no-targeted smooth adversarial attack method based on Jacobian saliency map,NTSA)。该方法平衡对抗样本各项范数,根据电磁信号自身特点,通过计算雅可比矩阵生成显著图,选取关键特征点进行平滑的扰动添加从而生成对抗样本。在使用公开数据集训练的3个网络模型上进行实验得到的结果表明,NTSA在3个网络模型上都能达到90%以上的成功率。该方法比同类型特征点方法,即基于Jacobian显著图攻击(Jacobian-based saliency map attack,JSMA)方法提升了30%的攻击成功率,且扰动比率能降低到5%以下。从扰动比率、单点扰动距离、余弦相似度以及欧氏距离这4项隐蔽性指标反映出NTSA所生成的样本与该文其他方法生成的对抗样本相比具有最好的隐蔽性。 展开更多
关键词 电磁信号识别 对抗攻击 对抗样本 平滑攻击 鲁棒性
在线阅读 下载PDF
抵御对抗攻击的生成对抗网络IWSN入侵检测模型
8
作者 刘悦文 孙子文 《江苏大学学报(自然科学版)》 北大核心 2025年第5期562-569,共8页
针对对抗样本易引发基于深度学习的IWSN入侵检测系统误判并导致检测精度下降的问题,构建了基于生成对抗网络的IWSN入侵检测模型,以抵御对抗攻击并提升检测精度.采用FGSM、BIM、PGD这3种对抗算法快速构造对抗样本,利用生成对抗网络对3类... 针对对抗样本易引发基于深度学习的IWSN入侵检测系统误判并导致检测精度下降的问题,构建了基于生成对抗网络的IWSN入侵检测模型,以抵御对抗攻击并提升检测精度.采用FGSM、BIM、PGD这3种对抗算法快速构造对抗样本,利用生成对抗网络对3类对抗样本进行集成式训练,以生成新的对抗样本;引入Wasserstein距离和梯度惩罚约束,解决生成对抗网络模式崩坏的问题;进一步通过多层感知器实现攻击检测.采用工业天然气管道数据集,运用TensorFlow 2框架以及Pycharm软件工具,验证检测模型的有效性.试验结果表明:文中模型对对抗样本的检测率高于FGSM、BIM、PGD、集合的对抗训练防御方法,能有效防御对抗攻击. 展开更多
关键词 工业无线传感器网络 入侵检测 生成对抗网络 深度学习 对抗攻击 对抗样本
在线阅读 下载PDF
基于GAN的无数据黑盒对抗攻击方法
9
作者 赵恩浩 凌捷 《计算机工程与应用》 北大核心 2025年第7期204-212,共9页
对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗... 对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗攻击方法。无需目标模型的训练数据,使用混合标签信息的噪声生成替代模型所需的训练样本,通过目标模型的标记信息以及多样化损失函数使训练样本分布均匀且包含更多特征信息,进而使替代模型高效学习目标模型的分类功能。对比DaST和MAZE,该方法在降低35%~60%的对抗扰动和查询次数的同时对CIFAR-100、CIFAR-10、SVHN、FMNIST、MNIST五个数据集的FGSM、BIM、PGD三种攻击的成功率平均提高6~10个百分点,并且在实际应用中的黑盒模型场景Microsoft Azure取得78%以上的攻击成功率。 展开更多
关键词 黑盒对抗攻击 生成对抗网络 替代训练 迁移攻击 深度神经网络
在线阅读 下载PDF
基于视觉的汽车检测系统物理对抗攻击
10
作者 刘育秋 唐亮 王宁珍 《汽车安全与节能学报》 北大核心 2025年第1期50-56,共7页
为保护个人车辆的隐私信息,实现汽车伪装,对基于视觉的汽车检测系统进行物理对抗攻击。在3D对抗攻击框架的基础上,对攻击算法的目标函数进行优化设计,提升3D对抗纹理在多视角多场景设定下的攻击效果,设计针对天气变化的带权分层颜色映... 为保护个人车辆的隐私信息,实现汽车伪装,对基于视觉的汽车检测系统进行物理对抗攻击。在3D对抗攻击框架的基础上,对攻击算法的目标函数进行优化设计,提升3D对抗纹理在多视角多场景设定下的攻击效果,设计针对天气变化的带权分层颜色映射网络,使对抗纹理能够在训练流程中表达在天气参数下的颜色反应,从而进一步增强攻击在物理世界实现的鲁棒性。进行了数字和物理实验。结果表明:基于视觉的汽车检测系统在本算法攻击下检测的平均召回率降低了49.4%。从而,本算法优化出的对抗纹理具备的物理世界可实现性,能够在物理世界实现使检测系统的准确率下降至少38.7%。 展开更多
关键词 汽车检测系统 物理对抗攻击 深度学习 计算机视觉
在线阅读 下载PDF
基于改进加权显著图的雷达信号对抗攻击方法
11
作者 杨箫 谢军 +1 位作者 王国丽 邓志安 《雷达科学与技术》 北大核心 2025年第4期451-461,共11页
为了提升当前对抗攻击方法的攻击成功率和生成对抗样本的隐蔽性,本文提出了基于改进加权显著图的雷达信号对抗攻击方法。首先基于链式法则计算模型输出关于输入的雅可比矩阵;之后基于矩阵构建反映输入数据对输出影响程度的显著图,通过... 为了提升当前对抗攻击方法的攻击成功率和生成对抗样本的隐蔽性,本文提出了基于改进加权显著图的雷达信号对抗攻击方法。首先基于链式法则计算模型输出关于输入的雅可比矩阵;之后基于矩阵构建反映输入数据对输出影响程度的显著图,通过在显著图表达式中引入与真实标签导数相关的约束项,减少了攻击成功所需的总扰动点数;最后选取显著性最高的数据点添加双向扰动,迭代生成对抗样本。实验结果表明:在对ResNet和VGG两改进模型进行目标攻击时,相较于已有方法,本文方法具有更高的攻击成功率,生成的对抗样本也具有更好的隐蔽性。将生成的对抗样本直接迁移到CNN和CLDNN模型中进行黑盒攻击,模型识别率下降30个百分点以上。 展开更多
关键词 对抗攻击 加权雅可比显著图 双向扰动 雷达信号识别
在线阅读 下载PDF
基于消除语义特征的图像篡改定位模型对抗攻击
12
作者 蒋伟豪 刘波 《计算机科学》 北大核心 2025年第S2期839-845,共7页
目前,公众对于日新月异的图像篡改技术越来越担忧,因为它会引发伦理和安全问题。利用深度神经网络可以定位图像篡改区域。然而,随着深度神经网络的发展,针对它的对抗性攻击也层出不穷,这些攻击方法也促进了模型的鲁棒性研究。现有的对... 目前,公众对于日新月异的图像篡改技术越来越担忧,因为它会引发伦理和安全问题。利用深度神经网络可以定位图像篡改区域。然而,随着深度神经网络的发展,针对它的对抗性攻击也层出不穷,这些攻击方法也促进了模型的鲁棒性研究。现有的对抗攻击方法主要关注篡改痕迹特征,然而不同图像篡改定位模型关注的篡改痕迹特征有所不同,导致对抗攻击的迁移能力不足。由于卷积神经网络或Transformer网络也能够提取语义特征,而图像篡改定位模型往往将这些模型作为基线模型,因此模型在提取篡改特征时会不可避免地提取到部分语义特征。为了提高对抗样本的泛化能力,提出一种攻击方法,重点关注消除篡改图像的语义特征,训练一个语义分割网络作为攻击目标,提出一种攻击中间语义特征的损失函数,使得模型难以识别出图像篡改部分的语义信息。这种攻击方法具有较高的迁移能力,可以更好地隐藏扰动并生成更具攻击性的对抗样本,在多种实验下被证明可以攻击绝大多数现有模型并优于其他对抗攻击方法,并为图像篡改定位任务提供了更新颖的见解。 展开更多
关键词 对抗攻击 深度学习 图像篡改定位
在线阅读 下载PDF
DLSF:基于双重语义过滤的文本对抗攻击方法
13
作者 熊熙 丁广政 +1 位作者 王娟 张帅 《计算机科学》 北大核心 2025年第10期423-432,共10页
在商业应用领域,基于深度学习的文本模型发挥着关键作用,但其亦被揭示易受对抗性样本的影响,例如通过在评论中夹杂混肴词汇以使模型做出错误响应。好的文本攻击算法不仅可以评估该类模型的鲁棒性,还能够检测现有防御方法的有效性,从而... 在商业应用领域,基于深度学习的文本模型发挥着关键作用,但其亦被揭示易受对抗性样本的影响,例如通过在评论中夹杂混肴词汇以使模型做出错误响应。好的文本攻击算法不仅可以评估该类模型的鲁棒性,还能够检测现有防御方法的有效性,从而降低对抗性样本带来的潜在危害。鉴于目前黑盒环境下生成对抗文本的方法普遍存在对抗文本质量不高且攻击效率低下的问题,提出了一种基于单词替换的双重语义过滤(Dual-level Semantic Filtering,DLSF)攻击算法。其综合了目前存在的候选词集合获取方法,并有效避免了集合中不相关单词的干扰,丰富了候选词的类别和数量。在迭代搜索过程中采用双重过滤的束搜索策略,减少模型访问次数的同时,也能保证获取到最优的对抗文本。在文本分类和自然语言推理任务上的实验结果显示,该方法在提升对抗文本质量的同时,显著提高了攻击效率。具体来说,在IMDB数据集上的攻击成功率高达99.7%,语义相似度达到0.975,而模型访问次数仅为TAMPERS的17%。此外,目标模型在经过对抗样本进行对抗增强训练后,在MR数据集上的攻击成功率从92.9%降至65.4%,进一步验证了DLSF有效提升了文本模型的鲁棒性。 展开更多
关键词 文本对抗攻击 黑盒攻击 束搜索 鲁棒性 文本模型
在线阅读 下载PDF
基于集成学习的入侵检测系统对抗攻击检测
14
作者 李青青 张凯 +1 位作者 李晋国 赵健 《计算机工程与设计》 北大核心 2025年第3期850-856,共7页
为解决已有对抗攻击检测方案无法保证正常数据检测精度和使用数据集过时的问题,提出一种基于集成学习的防御方案AADEL,是一个双模块的训练框架,结合集成学习和对抗训练技术,提高模型的鲁棒性,保持对正常样本的检测精度。基于CICIDS2018... 为解决已有对抗攻击检测方案无法保证正常数据检测精度和使用数据集过时的问题,提出一种基于集成学习的防御方案AADEL,是一个双模块的训练框架,结合集成学习和对抗训练技术,提高模型的鲁棒性,保持对正常样本的检测精度。基于CICIDS2018基准数据集实现AADEL模型,实验结果表明,相比于传统解决方案,AADEL在正常样本和对抗样本上都有更好检测性能。 展开更多
关键词 机器学习 入侵检测系统 对抗攻击 集成学习 对抗训练 对抗检测 网络安全
在线阅读 下载PDF
基于L_(1)-mask约束的对抗攻击优化方法
15
作者 周强 陈军 陶卿 《智能系统学报》 北大核心 2025年第3期594-604,共11页
当前的对抗攻击方法通常采用无穷范数或L_(2)范数来度量距离,但在不可察觉性方面仍有提升空间。L_(1)范数作为稀疏学习的常用度量方式,其在提高对抗样本的不可察觉性方面尚未被深入研究。为了解决这一问题,提出基于L_(1)范数约束的对抗... 当前的对抗攻击方法通常采用无穷范数或L_(2)范数来度量距离,但在不可察觉性方面仍有提升空间。L_(1)范数作为稀疏学习的常用度量方式,其在提高对抗样本的不可察觉性方面尚未被深入研究。为了解决这一问题,提出基于L_(1)范数约束的对抗攻击方法,通过对特征进行差异化处理,将有限的扰动集中在更重要的特征上。此外,还提出了基于显著性分析的L_(1)-mask约束方法,通过遮盖显著性较低的特征来提高攻击的针对性。这些改进不仅提高了对抗样本的不可察觉性,还减少了对抗样本对替代模型的过拟合风险,增强了对抗攻击的迁移性。在ImageNet-Compatible数据集上的实验结果表明:在保持相同黑盒攻击成功率的条件下,基于L_(1)约束的对抗攻击方法不可察觉性指标FID(frechet inception distance)指标较无穷范数低约5.7%,而基于L_(1)-mask约束的FID指标则低约9.5%。 展开更多
关键词 对抗攻击 L_(1)范数 遮盖 显著性 不可察觉性 迁移性 稀疏 约束
在线阅读 下载PDF
一种基于线性插值的对抗攻击方法
16
作者 陈军 周强 +1 位作者 鲍蕾 陶卿 《计算机科学》 北大核心 2025年第8期403-410,共8页
深度神经网络在对抗性样本面前表现出显著的脆弱性,易遭受攻击。对抗性样本的构造可被抽象为一个最大化目标函数的优化问题。然而,基于梯度迭代的方法在处理此类优化问题时往往面临收敛性挑战。这类方法主要依赖梯度符号进行迭代更新,... 深度神经网络在对抗性样本面前表现出显著的脆弱性,易遭受攻击。对抗性样本的构造可被抽象为一个最大化目标函数的优化问题。然而,基于梯度迭代的方法在处理此类优化问题时往往面临收敛性挑战。这类方法主要依赖梯度符号进行迭代更新,却忽略了梯度的大小和方向信息,导致算法性能不稳定。研究表明,I-FGSM对抗攻击算法源自优化领域中的随机投影次梯度方法。已有文献指出,在优化问题中,采用线性插值方法替代随机投影次梯度方法能够获得优异的性能。鉴于此,提出一种新型的基于线性插值的对抗攻击方法。该方法将插值策略应用于对抗攻击中,并以实际梯度替代传统的符号梯度。理论上,所提出的线性插值对抗攻击算法已被证明在一般凸优化问题中能够实现最优的个体收敛速率,从而克服符号梯度类算法的收敛难题。实验结果证实,线性插值方法作为一种通用且高效的策略,与基于梯度的对抗攻击方法相结合,能够形成新的攻击算法。相较于已有算法,这些新的攻击算法在保持对抗性样本的不可察觉性的同时,显著提升了攻击成功率,并在迭代过程中保持了较高的稳定性。 展开更多
关键词 线性插值 对抗攻击 梯度符号 收敛性 稳定性
在线阅读 下载PDF
信息熵驱动的图神经网络黑盒迁移对抗攻击方法
17
作者 吴涛 纪琼辉 +3 位作者 先兴平 乔少杰 王超 崔灿一星 《电子与信息学报》 北大核心 2025年第10期3814-3825,共12页
图神经网络(GNNs)的对抗鲁棒性对其在安全关键场景中的应用具有重要意义。近年来,对抗攻击尤其是基于迁移的黑盒攻击引起了研究人员的广泛关注,但这些方法过度依赖代理模型的梯度信息导致生成的对抗样本迁移性较差。此外,现有方法多从... 图神经网络(GNNs)的对抗鲁棒性对其在安全关键场景中的应用具有重要意义。近年来,对抗攻击尤其是基于迁移的黑盒攻击引起了研究人员的广泛关注,但这些方法过度依赖代理模型的梯度信息导致生成的对抗样本迁移性较差。此外,现有方法多从全局视角出发选择扰动策略导致攻击效率低下。为了解决以上问题,该文探索熵与节点脆弱性之间的关联,并创新性地提出一种全新的对抗攻击思路。具体而言,针对同构图神经网络,利用节点熵来捕获节点的邻居子图的特征平滑性,提出基于节点熵的图神经网络迁移对抗攻击方法(NEAttack)。在此基础上,提出基于图熵的异构图神经网络对抗攻击方法(GEHAttack)。通过在多个模型和数据集上的大量实验,验证了所提方法的有效性,揭示了节点熵与节点脆弱性之间的关联关系在提升对抗攻击性能中的重要作用。 展开更多
关键词 图神经网络 对抗攻击 黑盒攻击 信息熵 模型鲁棒性
在线阅读 下载PDF
平衡可迁移与不可察觉的对抗攻击
18
作者 康凯 王家宝 徐堃 《计算机科学》 北大核心 2025年第6期381-389,共9页
基于数据驱动的深度学习模型由于无法覆盖所有可能样本数据,导致面临着精心设计的对抗样本的攻击问题。现有主流的基于RGB像素值的L_(p)范数扰动攻击方法虽然达到了很好的攻击成功率和迁移性,但是所生成的对抗样本存在极易被人眼感知的... 基于数据驱动的深度学习模型由于无法覆盖所有可能样本数据,导致面临着精心设计的对抗样本的攻击问题。现有主流的基于RGB像素值的L_(p)范数扰动攻击方法虽然达到了很好的攻击成功率和迁移性,但是所生成的对抗样本存在极易被人眼感知的高频噪声,而基于扩散模型的攻击方法兼顾了迁移性和不可察觉性,但是其优化策略主要从对抗模型的角度展开,缺乏从代理模型的角度对可迁移性和不可察觉性的深入探讨和分析。为了进一步探索分析可迁移性和不可察觉性的控制来源,以基于代理模型的攻击方法为框架,提出了一种新的基于潜在扩散模型的对抗样本生成方法。该方法中,在基本的对抗损失约束条件下,设计了可迁移注意力约束损失和不可察觉一致性约束损失,实现了对可迁移性与不可察觉性的平衡。在ImageNet-Compatible,CUB-200-2011和Stanford Cars这3个公开数据集上,与已有方法相比,所提方法生成的对抗样本具有很强的跨模型迁移攻击能力和人眼不易觉察扰动的效果。 展开更多
关键词 对抗攻击 扩散模型 可迁移性 不可察觉性 注意力机制
在线阅读 下载PDF
针对深度神经网络的高效光学对抗攻击
19
作者 戚富琪 高海昌 +1 位作者 李博凌 邹翔 《西安电子科技大学学报》 北大核心 2025年第2期1-12,共12页
随着对抗攻击算法的不断更新,深度神经网络面临的安全风险愈加严峻。由于光学现象在真实世界中出现频繁,对光学对抗攻击的抗干扰能力直观反应了深度神经网络在实际应用中的安全性。然而,目前光学对抗攻击方面的研究普遍存在光学对抗扰... 随着对抗攻击算法的不断更新,深度神经网络面临的安全风险愈加严峻。由于光学现象在真实世界中出现频繁,对光学对抗攻击的抗干扰能力直观反应了深度神经网络在实际应用中的安全性。然而,目前光学对抗攻击方面的研究普遍存在光学对抗扰动失真和优化不稳定的问题。为此,提出了一种新型光学攻击方法AdvFlare,以便于探究眩光扰动对深度神经网络安全性的影响。AdvFlare构造了一种参数化的眩光仿真模型,该模型对眩光的形状和颜色等多个属性进行建模,仿真效果好。在此基础上,提出了参数空间限制、随机初始化和分步优化的策略,解决了对抗扰动失真与收敛困难的问题。实验结果表明,与现有方法相比,AdvFlare能够以极高的成功率让深度神经网络误分类,具有稳定和扰动逼真度高的优点。此外,还发现,无论在数字域还是物理域,利用AdvFlare进行对抗训练能够显著提高深度神经网络的抗干扰能力,对提高公共交通场景下的模型鲁棒性有启发作用。 展开更多
关键词 深度神经网络 对抗攻击 眩光效应 模型鲁棒性 对抗训练
在线阅读 下载PDF
面向单目标追踪的对抗攻击技术综述
20
作者 陆正之 黄希宸 彭勃 《计算机工程与应用》 北大核心 2025年第16期1-15,共15页
单目标追踪是计算机视觉中的关键任务之一。随着人工智能技术的发展,基于深度学习的追踪方法已经成为单目标追踪的主流,显著提升了追踪的精度和可用性。然而深度学习方法易受到对抗攻击威胁,攻击者能够诱使深度追踪模型产生错误的追踪结... 单目标追踪是计算机视觉中的关键任务之一。随着人工智能技术的发展,基于深度学习的追踪方法已经成为单目标追踪的主流,显著提升了追踪的精度和可用性。然而深度学习方法易受到对抗攻击威胁,攻击者能够诱使深度追踪模型产生错误的追踪结果,严重影响追踪的鲁棒性和安全性。综述了近年来单目标追踪领域对抗性攻击技术的研究进展,揭示了深度学习追踪模型所面临的潜在安全风险,并分析了该领域所面临的挑战和难题。依据攻击方法是否与视频追踪的在线特性相适应,对现有的单目标追踪对抗性攻击技术进行了分类总结,阐述了基本原理、特征以及代表性工作。最后从构建安全可靠的追踪模型和面向实际应用的追踪攻击等视角,对追踪对抗技术的未来发展趋势进行了展望,探讨了当前追踪攻击研究中的关键问题,包括追踪对抗防御、多模态追踪攻击、物理可实现追踪攻击及非合作追踪攻击等,以推动该领域创新与进步。 展开更多
关键词 单目标追踪(SOT) 对抗攻击 深度学习 人工智能
在线阅读 下载PDF
上一页 1 2 13 下一页 到第
使用帮助 返回顶部