期刊文献+
共找到10篇文章
< 1 >
每页显示 20 50 100
基于可解释人工智能的流量对抗样本攻击及防御方法
1
作者 马博文 郭渊博 +2 位作者 田继伟 马骏 胡永进 《通信学报》 北大核心 2025年第4期160-173,共14页
针对基于人工智能的网络入侵检测系统,提出了一种基于可解释人工智能(XAI)的对抗样本攻击方法。利用XAI方法识别关键扰动特征,在保持流量功能时逐步进行针对性扰动,直至恶意流量被判定为良性,实现对抗流量样本攻击。这种方法可以大幅减... 针对基于人工智能的网络入侵检测系统,提出了一种基于可解释人工智能(XAI)的对抗样本攻击方法。利用XAI方法识别关键扰动特征,在保持流量功能时逐步进行针对性扰动,直至恶意流量被判定为良性,实现对抗流量样本攻击。这种方法可以大幅减少扰动特征,增强了攻击隐蔽性,而且其所识别的关键特征对不同分类器具有一致性,使得攻击样本具有较强的迁移性。在防御方面,提出了一种基于对抗训练的防御方法,以提升网络入侵检测系统的鲁棒性。实验结果表明,所提攻击方法具有较高的攻击成功率和迁移成功率;所提防御方法可以有效降低对抗样本攻击的成功率,增强了系统的鲁棒性。 展开更多
关键词 对抗样本攻击 可解释人工智能 网络入侵检测 恶意对抗流量
在线阅读 下载PDF
安卓恶意软件对抗样本攻击技术综述
2
作者 李珩 吴棒 +3 位作者 龚柱 高翠莹 袁巍 罗夏朴 《软件学报》 北大核心 2025年第6期2683-2712,共30页
面对Android恶意软件带来的严重的安全风险,如何有效检测Android恶意软件已成为工业界与学术界共同关注的焦点.然而随着Android对抗样本技术的出现,现有的恶意软件检测系统面临着前所未有的挑战.Android恶意软件对抗样本攻击通过对恶意... 面对Android恶意软件带来的严重的安全风险,如何有效检测Android恶意软件已成为工业界与学术界共同关注的焦点.然而随着Android对抗样本技术的出现,现有的恶意软件检测系统面临着前所未有的挑战.Android恶意软件对抗样本攻击通过对恶意软件的源码或特征进行扰动,使其在保持原始功能不受影响的条件下绕过恶意软件检测模型.尽管目前已有大量针对恶意软件的对抗样本攻击研究,但是现阶段仍缺乏针对Android系统对抗样本攻击的完备性综述,且并未研究Android系统中对抗样本设计的独特要求,因此首先介绍Android恶意软件检测的基本概念;然后从不同角度对现有的Android对抗样本技术进行分类,梳理Android对抗样本技术的发展脉络;随后综述近年来的Android对抗样本技术,介绍不同类别的代表性工作并分析其优缺点;之后,分类介绍常用的安卓对抗样本攻击所使用的代码扰动手段并分析其应用场景;最后讨论Android恶意软件对抗样本技术面临的挑战,展望该新兴领域的未来研究方向. 展开更多
关键词 安卓恶意软件检测 对抗样本攻击 AI安全 软件安全
在线阅读 下载PDF
工业加氢裂化过程深度学习模型的对抗样本攻击研究
3
作者 王晨 《石油学报(石油加工)》 北大核心 2025年第2期352-361,共10页
基于神经网络的深度学习技术已广泛应用于炼油化工工业软测量,其安全性日益引起重视。以用于加氢裂化过程异常监测的深度学习模型为研究对象,提出了基于梯度的TRI-FGSM白盒对抗样本攻击算法,并首次系统考察了加氢裂化深度学习模型的对... 基于神经网络的深度学习技术已广泛应用于炼油化工工业软测量,其安全性日益引起重视。以用于加氢裂化过程异常监测的深度学习模型为研究对象,提出了基于梯度的TRI-FGSM白盒对抗样本攻击算法,并首次系统考察了加氢裂化深度学习模型的对抗样本攻击效果的影响因素。结果表明:对抗攻击效果随着攻击迭代轮次而收敛至0.98,说明加氢裂化深度学习模型在面对对抗样本时易被误导、普遍存在安全性问题;对抗攻击算法中范数、扰动阈值的选择可提高攻击效率,但不能提高攻击质量,而加氢裂化回归任务中变量的输入维度和预测标签可显著影响生成的对抗样本的扰动程度,其中重石脑油收率预测案例中攻击收敛时对抗样本扰动度不足0.02,扰动最小,而2个换热器结垢预测案例相应扰动度则分别为0.04和0.12,扰动较大;在变量维度越高、异常监测初期实际标签值偏离模型理论预测值越小时,所生成的对抗样本扰动越小,隐蔽性越好且越不易被检测,攻击质量越高。通过揭露加氢裂化深度学习模型在炼油化工过程初期异常监测中的潜在脆弱性,强调安全性和可靠性,为构建炼油化工高鲁棒深度学习模型提供了有效见解。 展开更多
关键词 加氢裂化 神经网络 深度学习 对抗样本攻击 安全 异常监测 脆弱性
在线阅读 下载PDF
面向自动驾驶感知系统的对抗样本攻击研究综述 被引量:1
4
作者 顾芳铭 况博裕 +1 位作者 许亚倩 付安民 《信息安全研究》 CSCD 北大核心 2024年第9期786-794,共9页
自动驾驶感知系统通过多种传感器采集周围环境信息并进行数据处理,用于检测车辆、行人和障碍物等,为后续的控制决策功能提供实时的基础数据.由于传感器直接与外部环境相连,且其自身往往缺乏辨别输入可信度的能力,因此感知系统成为众多... 自动驾驶感知系统通过多种传感器采集周围环境信息并进行数据处理,用于检测车辆、行人和障碍物等,为后续的控制决策功能提供实时的基础数据.由于传感器直接与外部环境相连,且其自身往往缺乏辨别输入可信度的能力,因此感知系统成为众多攻击的潜在目标.对抗样本攻击是一种具有高隐蔽性和危害性的主流攻击方式,攻击者通过篡改或伪造感知系统的输入数据,欺骗感知算法,导致系统产生错误的输出结果,从而严重威胁自动驾驶安全.系统总结分析了自动驾驶感知系统的工作方式和面向感知系统的对抗样本攻击进展.从基于信号的对抗样本攻击和基于实物的对抗样本攻击2方面对比分析了面向自动驾驶感知系统的对抗样本攻击方案.同时,从异常检测、模型防御和物理防御3个方面全面分析了面向感知系统的对抗样本攻击的防御策略.最后,给出了面向自动驾驶感知系统的对抗样本攻击未来研究方向. 展开更多
关键词 车联网 自动驾驶 感知系统 对抗样本攻击 安全防御
在线阅读 下载PDF
基于Logits向量的JSMA对抗样本攻击改进算法 被引量:4
5
作者 胡卫 赵文龙 +1 位作者 陈璐 付伟 《信息网络安全》 CSCD 北大核心 2022年第3期62-69,共8页
文章针对目前典型基于显著图的对抗样本攻击算法JSMA开展研究,提出基于Logits向量的JSMA对抗样本攻击改进算法L-JSMA。该算法在MNIST数据集和CIFAR-10数据集上证明了攻击效果与Logits排序成正相关。为进一步验证该理论,在Alexnet模型和I... 文章针对目前典型基于显著图的对抗样本攻击算法JSMA开展研究,提出基于Logits向量的JSMA对抗样本攻击改进算法L-JSMA。该算法在MNIST数据集和CIFAR-10数据集上证明了攻击效果与Logits排序成正相关。为进一步验证该理论,在Alexnet模型和Inception-v3模型上对攻击目标根据Logits排序进行攻击,结论支持该理论。通过实验分析,攻击能力越强的JSMA衍生算法越能够充分利用神经网络的线性特性,在实验结果中表现出的线性相关性越强。由于神经网络同时具有线性特征和非线性特征,攻击效果并不是与Logits排序严格的正相关。文章通过对白盒攻击的神经网络性质探讨,有利于理解神经网络的本质特征,并对黑盒攻击的研究具有借鉴意义。 展开更多
关键词 神经网络 对抗样本攻击 JSMA LOGITS
在线阅读 下载PDF
针对视频语义描述模型的稀疏对抗样本攻击
6
作者 邱江兴 汤学明 +3 位作者 王天美 王成 崔永泉 骆婷 《计算机科学》 CSCD 北大核心 2023年第12期330-336,共7页
在多模态深度学习领域,尽管有很多研究表明图像语义描述模型容易受到对抗样本的攻击,但是视频语义描述模型的鲁棒性并没有得到很多的关注。主要原因有两点:一是与图像语义描述模型相比,视频语义描述模型的输入是一个图像流,而不是单一... 在多模态深度学习领域,尽管有很多研究表明图像语义描述模型容易受到对抗样本的攻击,但是视频语义描述模型的鲁棒性并没有得到很多的关注。主要原因有两点:一是与图像语义描述模型相比,视频语义描述模型的输入是一个图像流,而不是单一的图像,如果对视频的每一帧进行扰动,那么整体的计算量将会很大;二是与视频识别模型相比,视频语义描述模型的输出不是一个单词,而是更复杂的语义描述。为了解决上述问题以及研究视频描述模型的鲁棒性,提出了一种针对视频语义描述模型的稀疏对抗样本攻击方法。首先,基于图像识别领域的显著性分析的原理,提出了一种评估视频中不同帧对模型输出贡献度的方法。在此基础上,选择关键帧施加扰动。其次,针对视频语义描述模型,设计了基于L2范数的优化目标函数。在数据集MSR-VTT上的实验结果表明,所提方法在定向攻击上的成功率为96.4%,相比随机选择视频帧,查询次数减少了45%以上。上述结果验证了所提方法的有效性并揭示了视频语义描述模型的脆弱性。 展开更多
关键词 多模态模型 视频语义描述模型 对抗样本攻击 图像显著性 关键帧选择
在线阅读 下载PDF
基于孪生结构的对抗样本攻击动态防御方法
7
作者 熊夙 凌捷 《计算机工程与应用》 CSCD 北大核心 2022年第17期230-238,共9页
神经网络模型已被广泛应用于多个研究领域,但神经网络模型本身存在易受到对抗样本攻击的缺点,如在图像分类中,只需在原始图片中添加微小的对抗扰动生成对抗样本,就可以轻易欺骗神经网络分类模型,这给许多领域的应用安全带来严重的威胁... 神经网络模型已被广泛应用于多个研究领域,但神经网络模型本身存在易受到对抗样本攻击的缺点,如在图像分类中,只需在原始图片中添加微小的对抗扰动生成对抗样本,就可以轻易欺骗神经网络分类模型,这给许多领域的应用安全带来严重的威胁。因此,研究如何提高神经网络分类模型对对抗样本攻击的防御能力成为深度学习安全领域的研究热点。目前常用的对抗样本攻击防御方法往往只侧重于提高模型对对抗样本分类的鲁棒性,或者只侧重于检测拦截对抗样本,而对抗训练需要收集大量对抗样本,且难以防御新类型的对抗样本攻击,对于使用额外的分类器去检测对抗样本的方法,则存在着易受到二次攻击等缺点。针对这些问题,提出一种基于孪生神经网络结构的对抗样本攻击动态防御方法,利用孪生结构可比较两个输入相似性的特点,从孪生神经网络两侧的预测差异着手,检测图片在动态滤波前后是否存在不同的攻击效果,从而筛选出带有动态扰动的对抗样本。实验结果表明,在没有收集特定种类的对抗样本进行训练的情况下,该方法对多种对抗样本攻击取得了良好的通用防御效果,其中在FGSM对抗样本测试集上的防御准确率达到95.35%,在DeepFool和JSMA对抗样本测试集上的防御准确率达到93.52%和93.73%,且镜像防御模块中的动态滤波器能够有效地平滑对抗扰动、防御二次攻击,提高了方法的整体安全性。 展开更多
关键词 深度学习 孪生神经网络 图像分类 对抗样本攻击
在线阅读 下载PDF
计算机视觉领域对抗样本检测综述 被引量:1
8
作者 张鑫 张晗 +1 位作者 牛曼宇 姬莉霞 《计算机科学》 北大核心 2025年第1期345-361,共17页
随着数据量的增加和硬件性能的提升,深度学习在计算机视觉领域取得了显著进展.然而,深度学习模型容易受到对抗样本的攻击,导致输出发生显著变化.对抗样本检测作为一种有效的防御手段,可以在不改变模型结构的前提下防止对抗样本对深度学... 随着数据量的增加和硬件性能的提升,深度学习在计算机视觉领域取得了显著进展.然而,深度学习模型容易受到对抗样本的攻击,导致输出发生显著变化.对抗样本检测作为一种有效的防御手段,可以在不改变模型结构的前提下防止对抗样本对深度学习模型造成影响.首先,对近年来的对抗样本检测研究工作进行了整理,分析了对抗样本检测与训练数据的关系,根据检测方法所使用特征进行分类,系统全面地介绍了计算机视觉领域的对抗样本检测方法;然后,对一些结合跨领域技术的检测方法进行了详细介绍,统计了训练和评估检测方法的实验配置;最后,汇总了一些有望应用于对抗样本检测的技术,并对未来的研究挑战进行展望. 展开更多
关键词 深度学习 对抗样本攻击 对抗样本检测 人工智能安全 图像分类
在线阅读 下载PDF
基于特征差分选择的集成模型流量对抗样本防御架构
9
作者 何元康 马海龙 +1 位作者 胡涛 江逸茗 《计算机科学》 北大核心 2025年第4期369-380,共12页
当前,基于深度学习的异常流量检测模型容易遭受流量对抗样本攻击。作为防御对抗攻击的有效方法,对抗训练虽然提升了模型鲁棒性,但也导致了模型检测精度下降。因此,如何有效平衡模型检测性能和鲁棒性是当前学术界研究的热点问题。针对该... 当前,基于深度学习的异常流量检测模型容易遭受流量对抗样本攻击。作为防御对抗攻击的有效方法,对抗训练虽然提升了模型鲁棒性,但也导致了模型检测精度下降。因此,如何有效平衡模型检测性能和鲁棒性是当前学术界研究的热点问题。针对该问题,基于集成学习思想构建多模型对抗防御框架,通过结合主动性特征差分选择和被动性对抗训练,来提升模型的对抗鲁棒性和检测性能。该框架由特征差分选择模块、检测体集成模块和投票裁决模块组成,用于解决单检测模型无法平衡检测性能与鲁棒性、防御滞后的问题。在模型训练方面,设计了基于特征差分选择的训练数据构造方法,通过有差异性地选择和组合流量特征,形成差异化流量样本数据,用于训练多个异构检测模型,以抵御单模型对抗攻击;在模型裁决方面,对多模型检测结果进行裁决输出,基于改进的启发式种群算法优化集成模型裁决策略,在提升检测精度的同时,增大了对抗样本生成的难度。实验效果显示,所提方法的性能相比单个模型对抗训练有较大提升,相较于现有的集成防御方法,其准确率和鲁棒性提升了近10%。 展开更多
关键词 异常流量检测 对抗样本攻击 集成学习 多模裁决
在线阅读 下载PDF
基于多模态特征融合的人脸物理对抗样本性能预测算法 被引量:1
10
作者 周风帆 凌贺飞 +3 位作者 张锦元 夏紫薇 史宇轩 李平 《计算机科学》 CSCD 北大核心 2023年第8期280-285,共6页
人脸物理对抗样本攻击(Facial Physical Adversarial Attack,FPAA)指攻击者通过粘贴或佩戴物理对抗样本,如打印的眼镜、纸片等,在摄像头下被识别成特定目标的人脸,或者让人脸识别系统无法识别的攻击方式。已有FPAA的性能评测会受到多种... 人脸物理对抗样本攻击(Facial Physical Adversarial Attack,FPAA)指攻击者通过粘贴或佩戴物理对抗样本,如打印的眼镜、纸片等,在摄像头下被识别成特定目标的人脸,或者让人脸识别系统无法识别的攻击方式。已有FPAA的性能评测会受到多种环境因素的影响,且需要多个人工操作的环节,导致性能评测效率非常低下。为了减少人脸物理对抗样本性能评测方面的工作量,结合数字图片和环境因素之间的多模态性,提出了多模态特征融合预测算法(Multimodal Feature Fusion Prediction Algorithm,MFFP)。具体地,使用不同的网络提取攻击者人脸图片、受害者人脸图片和人脸数字对抗样本图片的特征,使用环境特征网络来提取环境因素中的特征,然后使用一个多模态特征融合网络对这些特征进行融合,多模态特征融合网络的输出即为所预测的人脸物理对抗样本图片和受害者图片之间的余弦相似度。MFFP算法在未知环境、未知FPAA算法的实验场景下取得了0.003的回归均方误差,其性能优于对比算法,验证了MFFP算法对FPAA性能预测的准确性,可以对FPAA性能进行快速评估,同时大幅降低人工操作的工作量。 展开更多
关键词 人工智能安全 对抗样本 人脸物理对抗样本攻击 性能预测 多模态特征融合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部