期刊文献+
共找到14篇文章
< 1 >
每页显示 20 50 100
抵抗推理攻击的车联网位置隐私增强方法
1
作者 张金瑞 王庆国 +1 位作者 黄元浩 邢玲 《现代电子技术》 北大核心 2024年第14期182-186,共5页
车联网中实体可信度不明确,用户与其他实体频繁通信,会增加用户隐私泄露风险。为此,提出一种抵抗推理攻击的车联网位置隐私增强方法。用户向路边单元(RSU)请求兴趣点(POIs),并从本地缓存中根据用户相似度推荐多个合适的POIs,在多POIs中... 车联网中实体可信度不明确,用户与其他实体频繁通信,会增加用户隐私泄露风险。为此,提出一种抵抗推理攻击的车联网位置隐私增强方法。用户向路边单元(RSU)请求兴趣点(POIs),并从本地缓存中根据用户相似度推荐多个合适的POIs,在多POIs中选择最终目的地。即使兴趣点被攻击者窃取也难以推断用户的最终目的地。如果用户未收到期望的POI,可以向服务提供商(SP)请求扩大服务范围。仿真结果表明,与对比方法相比,所提方法的通信开销平均降低14%,位置熵平均提高12%。所提方案通过减小与SP的通信次数,不仅能减小通信开销,还能增强隐私保护程度。通过用户偏好计算更符合用户期望的多个POIs,供用户选择最终的目的地,不仅能提高服务可用性,还能抵抗推理攻击。 展开更多
关键词 车联网 隐私增强 推理攻击 路边单元 兴趣点 位置隐私保护 基于位置的服务(LBS) 主动缓存
在线阅读 下载PDF
面向机器学习模型的基于PCA的成员推理攻击 被引量:6
2
作者 彭长根 高婷 +1 位作者 刘惠篮 丁红发 《通信学报》 EI CSCD 北大核心 2022年第1期149-160,共12页
针对目前黑盒成员推理攻击存在的访问受限失效问题,提出基于主成分分析(PCA)的成员推理攻击。首先,针对黑盒成员推理攻击存在的访问受限问题,提出一种快速决策成员推理攻击fast-attack。在基于距离符号梯度获取扰动样本的基础上将扰动... 针对目前黑盒成员推理攻击存在的访问受限失效问题,提出基于主成分分析(PCA)的成员推理攻击。首先,针对黑盒成员推理攻击存在的访问受限问题,提出一种快速决策成员推理攻击fast-attack。在基于距离符号梯度获取扰动样本的基础上将扰动难度映射到距离范畴来进行成员推理。其次,针对快速决策成员推理攻击存在的低迁移率问题,提出一种基于PCA的成员推理攻击PCA-based attack。将快速决策成员推理攻击中的基于扰动算法与PCA技术相结合来实现成员推理,以抑制因过度依赖模型而导致的低迁移行为。实验表明,fast-attack在确保攻击精度的同时降低了访问成本,PCA-based attack在无监督的设置下优于基线攻击,且模型迁移率相比fast-attack提升10%。 展开更多
关键词 机器学习 对抗样本 成员推理攻击 主成分分析 隐私泄露
在线阅读 下载PDF
面向正常拟合迁移学习模型的成员推理攻击 被引量:1
3
作者 陈晋音 上官文昌 +3 位作者 张京京 郑海斌 郑雅羽 张旭鸿 《通信学报》 EI CSCD 北大核心 2021年第10期197-210,共14页
针对现有成员推理攻击(MIA)在面向正常拟合迁移学习模型时性能较差的问题,对迁移学习模型在正常拟合情况下的MIA进行了系统的研究,设计异常样本检测获取容易受攻击的数据样本,实现对单个样本的成员推理攻击。最终,将提出的攻击方法在4... 针对现有成员推理攻击(MIA)在面向正常拟合迁移学习模型时性能较差的问题,对迁移学习模型在正常拟合情况下的MIA进行了系统的研究,设计异常样本检测获取容易受攻击的数据样本,实现对单个样本的成员推理攻击。最终,将提出的攻击方法在4种图像数据集上展开攻击验证,结果表明,所提MIA有较好的攻击性能。例如,从VGG16(用Caltech101预训练)迁移的Flowers102分类器上,所提MIA实现了83.15%的成员推理精确率,揭示了在迁移学习环境下,即使不访问教师模型,通过访问学生模型依然能实现对教师模型的MIA。 展开更多
关键词 成员推理攻击 深度学习 迁移学习 隐私风险 正常拟合模型
在线阅读 下载PDF
基于GAN的联邦学习成员推理攻击与防御方法 被引量:4
4
作者 张佳乐 朱诚诚 +1 位作者 孙小兵 陈兵 《通信学报》 EI CSCD 北大核心 2023年第5期193-205,共13页
针对联邦学习系统极易遭受由恶意参与方在预测阶段发起的成员推理攻击行为,以及现有的防御方法在隐私保护和模型损失之间难以达到平衡的问题,探索了联邦学习中的成员推理攻击及其防御方法。首先提出2种基于生成对抗网络(GAN)的成员推理... 针对联邦学习系统极易遭受由恶意参与方在预测阶段发起的成员推理攻击行为,以及现有的防御方法在隐私保护和模型损失之间难以达到平衡的问题,探索了联邦学习中的成员推理攻击及其防御方法。首先提出2种基于生成对抗网络(GAN)的成员推理攻击方法:类级和用户级成员推理攻击,其中,类级成员推理攻击旨在泄露所有参与方的训练数据隐私,用户级成员推理攻击可以指定某一个特定的参与方;此外,进一步提出一种基于对抗样本的联邦学习成员推理防御方法(Def MIA),通过设计针对全局模型参数的对抗样本噪声添加方法,能够在保证联邦学习准确率的同时,有效防御成员推理攻击。实验结果表明,类级和用户级成员推理攻击可以在联邦学习中获得超过90%的攻击精度,而在使用Def MIA方法后,其攻击精度明显降低,接近于随机猜测(50%)。 展开更多
关键词 联邦学习 成员推理攻击 生成对抗网络 对抗样本 隐私泄露
在线阅读 下载PDF
机器学习中成员推理攻击和防御研究综述 被引量:4
5
作者 牛俊 马骁骥 +7 位作者 陈颖 张歌 何志鹏 侯哲贤 朱笑岩 伍高飞 陈恺 张玉清 《信息安全学报》 CSCD 2022年第6期1-30,共30页
机器学习被广泛应用于各个领域,已成为推动各行业革命的强大动力,极大促进了人工智能的繁荣与发展。同时,机器学习模型的训练和预测均需要大量数据,而这些数据可能包含隐私信息,导致其隐私安全面临严峻挑战。成员推理攻击主要通过推测... 机器学习被广泛应用于各个领域,已成为推动各行业革命的强大动力,极大促进了人工智能的繁荣与发展。同时,机器学习模型的训练和预测均需要大量数据,而这些数据可能包含隐私信息,导致其隐私安全面临严峻挑战。成员推理攻击主要通过推测一个数据样本是否被用于训练目标模型来破坏数据隐私,其不仅可以破坏多种机器学习模型(如,分类模型和生成模型)的数据隐私,而且其隐私泄露也渗透到图像分类、语音识别、自然语言处理、计算机视觉等领域,这对机器学习的长远发展产生了极大的安全威胁。因此,为了提高机器学习模型对成员推理攻击的安全性,本文从机器学习隐私安全攻防角度,全面系统性分析和总结了成员推理攻击和防御的基本原理和特点。首先,介绍了成员推理攻击的定义、威胁模型,并从攻击原理、攻击场景、背景知识、攻击的目标模型、攻击领域、攻击数据集大小六个方面对成员推理攻击进行分类,比较不同攻击的优缺点;然后,从目标模型的训练数据、模型类型以及模型的过拟合程度三个角度分析成员推理攻击存在原因,并从差分隐私、正则化、数据增强、模型堆叠、早停、信任分数掩蔽和知识蒸馏七个层面对比分析不同防御措施;接着,归纳总结了成员推理攻击和防御常用的评估指标和数据集,以及其在其他方面的应用。最后,通过对比分析已有成员推理攻击和防御的优缺点,对其面临的挑战和未来研究方向进行了展望。 展开更多
关键词 机器学习 成员推理攻击 隐私安全 防御措施
在线阅读 下载PDF
基于图神经网络模型校准的成员推理攻击
6
作者 谢丽霞 史镜琛 +2 位作者 杨宏宇 胡泽 成翔 《电子与信息学报》 2025年第3期780-791,共12页
针对图神经网络(GNN)模型在其预测中常处于欠自信状态,导致该状态下实施成员推理攻击难度大且攻击漏报率高的问题,该文提出一种基于GNN模型校准的成员推理攻击方法。首先,设计一种基于因果推断的GNN模型校准方法,通过基于注意力机制的... 针对图神经网络(GNN)模型在其预测中常处于欠自信状态,导致该状态下实施成员推理攻击难度大且攻击漏报率高的问题,该文提出一种基于GNN模型校准的成员推理攻击方法。首先,设计一种基于因果推断的GNN模型校准方法,通过基于注意力机制的因果图提取、因果图与非因果图解耦、后门路径调整策略和因果关联图生成过程,构建用于训练GNN模型的因果关联图。其次,使用与目标因果关联图在相同数据分布下的影子因果关联图构建影子GNN模型,模拟目标GNN模型的预测行为。最后,使用影子GNN模型的后验概率构建攻击数据集以训练攻击模型,根据目标GNN模型对目标节点的后验概率输出推断其是否属于目标GNN模型的训练数据。在4个数据集上的实验结果表明,该文方法在2种攻击模式下面对不同架构的GNN模型进行攻击时,攻击准确率最高为92.6%,性能指标优于基线攻击方法,可有效地实施成员推理攻击。 展开更多
关键词 图神经网络 成员推理攻击 模型校准 因果推断 隐私风险
在线阅读 下载PDF
潜艇对水面舰艇编队攻击意图推理研究 被引量:3
7
作者 吴文龙 黄文斌 刘剑 《火力与指挥控制》 CSCD 北大核心 2010年第9期101-105,共5页
为量化编队的对潜攻击意图,首先从潜艇能够获取的信息中提取攻击意图检测值;其次采取基于目标信息要素聚类的编队群体识别,将潜艇探测到的所有目标按照编队分群;最后采取基于可变权多目标决策的编队攻击意图推理将编队攻击意图的明显程... 为量化编队的对潜攻击意图,首先从潜艇能够获取的信息中提取攻击意图检测值;其次采取基于目标信息要素聚类的编队群体识别,将潜艇探测到的所有目标按照编队分群;最后采取基于可变权多目标决策的编队攻击意图推理将编队攻击意图的明显程度量化为编队攻击意图系数。研究使得编队对潜攻击意图表征成为可能,为威胁判断后续工作打下基础。 展开更多
关键词 攻击意图推理 群体识别 多目标决策
在线阅读 下载PDF
异步联邦学习中隔代模型泄露攻击及防治方法
8
作者 胡智尧 于淼 田开元 《空军工程大学学报》 CSCD 北大核心 2024年第5期121-127,共7页
联邦学习已成为数据孤岛背景下知识共享的成功方案。随着梯度逆向推理等新式攻击手段的问世,联邦学习的安全性再度面临新挑战。针对联邦学习可能存在参与者恶意窃取其它客户端梯度信息的风险,提出一种异步联邦学习框架下的隔代模型泄露... 联邦学习已成为数据孤岛背景下知识共享的成功方案。随着梯度逆向推理等新式攻击手段的问世,联邦学习的安全性再度面临新挑战。针对联邦学习可能存在参与者恶意窃取其它客户端梯度信息的风险,提出一种异步联邦学习框架下的隔代模型泄露攻击方式:利用中心服务器“接收则聚合”的特点,多名恶意客户端可按照特定更新顺序,通过隔代版本的全局模型差异逆向计算其他客户端的模型更新数据,从而窃取对方的模型。针对此问题,提出基于α-滑动平均的随机聚合算法。首先,中心服务器每次收到客户端的模型更新后,将其与从最近α次聚合中随机选出的全局模型进行聚合,打乱客户端的更新顺序;其次,随着全局迭代次数增加,中心服务器对最近α次聚合的全局模型进行滑动平均,计算出最终全局模型。实验结果表明,与异步联邦学习方法相比,FedAlpha方法有效降低隔代模型泄露攻击的可能性。 展开更多
关键词 异步联邦学习安全 逆向推理攻击 随机聚合 滑动平均 隔代模型泄露攻击
在线阅读 下载PDF
基于多方计算的安全拜占庭弹性联邦学习
9
作者 高鸿峰 黄浩 田有亮 《通信学报》 北大核心 2025年第2期108-122,共15页
为了解决联邦学习中梯度隐私保护、服务器推理攻击和客户端数据投毒导致的低准确率等问题,针对服务器-客户端的两层架构,提出了一种基于多方计算的安全拜占庭弹性联邦学习方案。首先,提出了一种基于加法秘密共享的两方密文计算方法,对... 为了解决联邦学习中梯度隐私保护、服务器推理攻击和客户端数据投毒导致的低准确率等问题,针对服务器-客户端的两层架构,提出了一种基于多方计算的安全拜占庭弹性联邦学习方案。首先,提出了一种基于加法秘密共享的两方密文计算方法,对本地模型梯度进行拆分,来抵抗服务器的推理攻击。其次,设计了一种密态数据下的投毒检测算法和客户端筛选机制来抵御投毒攻击。最后,在MNIST数据集和CIFAR-10数据集上进行实验来验证方案的可行性。与传统的Trim-mean和Median方法相比,当拜占庭参与者比例达到40%时,模型的准确率提升了3%~6%。综上所述,所提方案既能抵御推理攻击和投毒攻击,又能提高全局模型的准确率,足以证明方案的有效性。 展开更多
关键词 联邦学习 隐私保护 多方计算 推理攻击 投毒攻击
在线阅读 下载PDF
高级持续性威胁检测与分析方法研究进展
10
作者 季一木 张嘉铭 +4 位作者 杨倩 杜宏煜 邵思思 张俊杰 刘尚东 《南京邮电大学学报(自然科学版)》 北大核心 2025年第1期1-11,共11页
高级持续性威胁(Advanced Persistent Threat,APT)检测分析是网络安全领域的一个研究热点。APT检测与分析仍然面临着许多挑战,对当前研究进行归纳梳理,总结了APT检测与分析方法研究进展。首先,分析APT攻击威胁建模方法。其次,梳理代表性... 高级持续性威胁(Advanced Persistent Threat,APT)检测分析是网络安全领域的一个研究热点。APT检测与分析仍然面临着许多挑战,对当前研究进行归纳梳理,总结了APT检测与分析方法研究进展。首先,分析APT攻击威胁建模方法。其次,梳理代表性的APT攻击检测方法,包括基于主机和基于网络的相关研究。然后,总结APT攻击分析方法,介绍了攻击溯源与攻击行为推理相关研究。最后,展望未来APT攻击检测与分析的研究方向,以便研究人员了解当前研究现状和拓展研究思路。 展开更多
关键词 高级持续威胁 攻击发现 攻击溯源 攻击推理
在线阅读 下载PDF
效用增强的差分私有轨迹合成方法
11
作者 张学军 许陈 +3 位作者 田丰 杜晓刚 黄海燕 徐彤 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第12期3615-3631,共17页
轨迹数据对各种应用都具有重要的价值,然而共享与利用轨迹数据的同时保护用户隐私是一个长期的挑战。目前流行的轨迹共享隐私保护方法是基于差分隐私技术来生成与真实轨迹高度相似的完整合成轨迹,然而这些方法会造成合成轨迹可用性低且... 轨迹数据对各种应用都具有重要的价值,然而共享与利用轨迹数据的同时保护用户隐私是一个长期的挑战。目前流行的轨迹共享隐私保护方法是基于差分隐私技术来生成与真实轨迹高度相似的完整合成轨迹,然而这些方法会造成合成轨迹可用性低且易遭受位置隐私推理攻击的问题。为此,提出一种效用增强的差分私有轨迹合成方法 (UtiE-DPT)。该方法通过多次空间划分真实轨迹数据集,构建了细粒度的自适应密度网格来离散化真实轨迹,并设计了适合于自适应密度网格的差分私有马尔可夫移动模型、轨迹行程分布和轨迹长度分布计算模型来更精确地提取真实轨迹的效用保持关键统计特征,有效增强了合成轨迹的效用。为了防止轨迹隐私泄露,对提取的关键统计特征进行差分私有扰动。根据提取的特征并结合抗攻击约束策略生成抵御推理攻击的合成轨迹。在模拟与真实数据集上的大量实验结果表明,与现有的轨迹合成隐私保护方法 DP-Star和AdaTrace相比,UtiE-DPT在保护轨迹隐私和抵御位置隐私推理攻击的同时增强了合成轨迹的可用性。在不考虑抵御推理攻击时,UtiE-DPT生成合成轨迹的查询误差比AdaTrace降低了21%~27%,比DP-Star降低了32%~53%;在抵御推理攻击后,虽然合成轨迹的弹性比比AdaTrace降低了约1%~2%,但查询误差比AdaTrace降低了16%~21%,在隐私保护与效用之间达成更好的均衡。 展开更多
关键词 轨迹隐私 差分隐私 轨迹发布 马尔可夫链 推理攻击
在线阅读 下载PDF
高度重视人工智能安全问题 被引量:8
12
作者 谭毓安 《信息安全研究》 2022年第3期311-313,共3页
近年来,以深度学习为代表的人工智能技术飞速发展,在图像分类、自然语言处理等多个任务中超过了人类表现.在金融、教育、医疗、军事、制造、服务等多个领域,人工智能技术应用不断深化,和社会生活的融合愈加紧密.然而,在这一过程中,人工... 近年来,以深度学习为代表的人工智能技术飞速发展,在图像分类、自然语言处理等多个任务中超过了人类表现.在金融、教育、医疗、军事、制造、服务等多个领域,人工智能技术应用不断深化,和社会生活的融合愈加紧密.然而,在这一过程中,人工智能系统自身暴露出众多安全问题,不断涌现出针对人工智能系统的新型安全攻击,包括对抗攻击、投毒攻击、后门攻击、伪造攻击、模型逆向攻击、成员推理攻击等.这些攻击损害了人工智能数据、算法和系统的机密性、完整性和可用性,迫切需要学术界和产业界的共同关注. 展开更多
关键词 人工智能系统 自然语言处理 人工智能技术 图像分类 智能数据 安全攻击 深度学习 推理攻击
在线阅读 下载PDF
基于差分隐私的轨迹隐私保护方法 被引量:6
13
作者 袁水莲 皮德常 胥萌 《电子学报》 EI CAS CSCD 北大核心 2021年第7期1266-1273,共8页
针对现有的轨迹隐私保护模型大多难以抵御复杂背景知识攻击的问题,本文提出了一种基于差分隐私的轨迹隐私保护方法.首先结合地理不可区分机制对原始轨迹数据添加半径受限的拉普拉斯噪音;其次构造数据映射模型将原始数据和噪音数据映射... 针对现有的轨迹隐私保护模型大多难以抵御复杂背景知识攻击的问题,本文提出了一种基于差分隐私的轨迹隐私保护方法.首先结合地理不可区分机制对原始轨迹数据添加半径受限的拉普拉斯噪音;其次构造数据映射模型将原始数据和噪音数据映射到新的发布位置,使攻击者无法获取真实轨迹数据;接着应用最优数据映射函数发布最优的轨迹位置以提高发布数据的可用性;最后利用差分隐私抵御非敏感信息推理攻击,进一步保护用户隐私.实验结果表明,本文算法既能有效保护轨迹数据中用户的隐私,也能保证数据的可用性. 展开更多
关键词 轨迹数据 隐私保护 差分隐私 地理不可区分 背景知识攻击 推理攻击
在线阅读 下载PDF
一种基于异步联邦学习的安全聚合机制 被引量:1
14
作者 秦宝东 杨国栋 马宇涵 《西安邮电大学学报》 2023年第1期50-61,共12页
针对异步联邦学习的客户端数据隐私保护难度高、存在推理攻击等安全问题,提出一种基于异步联邦学习的安全聚合机制。根据客户端异步学习的特征,利用秘密分享与Paillier同态加密等技术在客户端选择自己的秘密份额用于掩盖客户端模型参数... 针对异步联邦学习的客户端数据隐私保护难度高、存在推理攻击等安全问题,提出一种基于异步联邦学习的安全聚合机制。根据客户端异步学习的特征,利用秘密分享与Paillier同态加密等技术在客户端选择自己的秘密份额用于掩盖客户端模型参数,服务器则利用拉格朗日插值法恢复总秘密用于获取聚合的全局参数,在保留异步模型低开销与高精度的优势下,具备抵御推理攻击的能力,使模型更加可靠实用。实验结果表明,所提安全聚合机制在每轮迭代中,客户端加密的平均耗时为0.226 s,服务器安全聚合的平均耗时为0.363 s。与模型训练相比,安全聚合产生的时间开销极小,且提高了模型的安全性。 展开更多
关键词 联邦学习 异步更新 推理攻击 安全聚合 秘密分享 Paillier加密
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部