期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
平衡可迁移与不可察觉的对抗攻击
1
作者 康凯 王家宝 徐堃 《计算机科学》 北大核心 2025年第6期381-389,共9页
基于数据驱动的深度学习模型由于无法覆盖所有可能样本数据,导致面临着精心设计的对抗样本的攻击问题。现有主流的基于RGB像素值的L_(p)范数扰动攻击方法虽然达到了很好的攻击成功率和迁移性,但是所生成的对抗样本存在极易被人眼感知的... 基于数据驱动的深度学习模型由于无法覆盖所有可能样本数据,导致面临着精心设计的对抗样本的攻击问题。现有主流的基于RGB像素值的L_(p)范数扰动攻击方法虽然达到了很好的攻击成功率和迁移性,但是所生成的对抗样本存在极易被人眼感知的高频噪声,而基于扩散模型的攻击方法兼顾了迁移性和不可察觉性,但是其优化策略主要从对抗模型的角度展开,缺乏从代理模型的角度对可迁移性和不可察觉性的深入探讨和分析。为了进一步探索分析可迁移性和不可察觉性的控制来源,以基于代理模型的攻击方法为框架,提出了一种新的基于潜在扩散模型的对抗样本生成方法。该方法中,在基本的对抗损失约束条件下,设计了可迁移注意力约束损失和不可察觉一致性约束损失,实现了对可迁移性与不可察觉性的平衡。在ImageNet-Compatible,CUB-200-2011和Stanford Cars这3个公开数据集上,与已有方法相比,所提方法生成的对抗样本具有很强的跨模型迁移攻击能力和人眼不易觉察扰动的效果。 展开更多
关键词 对抗攻击 扩散模型 可迁移 不可察觉性 注意力机制
在线阅读 下载PDF
基于L_(1)-mask约束的对抗攻击优化方法
2
作者 周强 陈军 陶卿 《智能系统学报》 北大核心 2025年第3期594-604,共11页
当前的对抗攻击方法通常采用无穷范数或L_(2)范数来度量距离,但在不可察觉性方面仍有提升空间。L_(1)范数作为稀疏学习的常用度量方式,其在提高对抗样本的不可察觉性方面尚未被深入研究。为了解决这一问题,提出基于L_(1)范数约束的对抗... 当前的对抗攻击方法通常采用无穷范数或L_(2)范数来度量距离,但在不可察觉性方面仍有提升空间。L_(1)范数作为稀疏学习的常用度量方式,其在提高对抗样本的不可察觉性方面尚未被深入研究。为了解决这一问题,提出基于L_(1)范数约束的对抗攻击方法,通过对特征进行差异化处理,将有限的扰动集中在更重要的特征上。此外,还提出了基于显著性分析的L_(1)-mask约束方法,通过遮盖显著性较低的特征来提高攻击的针对性。这些改进不仅提高了对抗样本的不可察觉性,还减少了对抗样本对替代模型的过拟合风险,增强了对抗攻击的迁移性。在ImageNet-Compatible数据集上的实验结果表明:在保持相同黑盒攻击成功率的条件下,基于L_(1)约束的对抗攻击方法不可察觉性指标FID(frechet inception distance)指标较无穷范数低约5.7%,而基于L_(1)-mask约束的FID指标则低约9.5%。 展开更多
关键词 对抗攻击 L_(1)范数 遮盖 显著 不可察觉性 迁移 稀疏 约束
在线阅读 下载PDF
Black⁃box adversarial attacks with imperceptible fake user profiles for recommender systems
3
作者 Qian Fulan Liu Jinggang +3 位作者 Chen Hai Chen Wenbin Zhao Shu Zhang Yanping 《南京大学学报(自然科学版)》 CSCD 北大核心 2024年第6期881-899,共19页
Attackers inject the designed adversarial sample into the target recommendation system to achieve illegal goals,seriously affecting the security and reliability of the recommendation system.It is difficult for attacke... Attackers inject the designed adversarial sample into the target recommendation system to achieve illegal goals,seriously affecting the security and reliability of the recommendation system.It is difficult for attackers to obtain detailed knowledge of the target model in actual scenarios,so using gradient optimization to generate adversarial samples in the local surrogate model has become an effective black‐box attack strategy.However,these methods suffer from gradients falling into local minima,limiting the transferability of the adversarial samples.This reduces the attack's effectiveness and often ignores the imperceptibility of the generated adversarial samples.To address these challenges,we propose a novel attack algorithm called PGMRS‐KL that combines pre‐gradient‐guided momentum gradient optimization strategy and fake user generation constrained by Kullback‐Leibler divergence.Specifically,the algorithm combines the accumulated gradient direction with the previous step's gradient direction to iteratively update the adversarial samples.It uses KL loss to minimize the distribution distance between fake and real user data,achieving high transferability and imperceptibility of the adversarial samples.Experimental results demonstrate the superiority of our approach over state‐of‐the‐art gradient‐based attack algorithms in terms of attack transferability and the generation of imperceptible fake user data. 展开更多
关键词 recommendation systems adversarial examples transferability imperceptible
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部