期刊文献+
共找到35篇文章
< 1 2 >
每页显示 20 50 100
面向遥感数据的基于本地差分隐私的联邦学习隐私保护方案 被引量:2
1
作者 陈海田 陈学斌 +1 位作者 马锐奎 张帅华 《计算机应用》 北大核心 2025年第2期506-517,共12页
遥感数据具有高度的时空相关性以及复杂的地物特征,使得这些数据的隐私保护面临挑战。联邦学习作为一种旨在保护参与方数据隐私的分布式学习方法,为应对遥感数据隐私保护面对的挑战提供了有效的解决方案;然而,在联邦学习模型的训练阶段... 遥感数据具有高度的时空相关性以及复杂的地物特征,使得这些数据的隐私保护面临挑战。联邦学习作为一种旨在保护参与方数据隐私的分布式学习方法,为应对遥感数据隐私保护面对的挑战提供了有效的解决方案;然而,在联邦学习模型的训练阶段,恶意攻击者可能通过反演推断参与者的隐私信息,进而导致敏感信息的泄露。针对遥感数据在联邦学习训练中存在的隐私泄露问题,提出一种基于本地差分隐私的联邦学习隐私保护方案。首先,对模型进行预训练,计算模型的层重要性,并根据层重要性合理分配隐私预算;然后,通过对模型更新进行裁剪变换,并对裁剪值进行自适应随机扰动,实现本地差分隐私保护;最后,在聚合扰动更新时,采用模型校正以进一步提高模型性能。理论分析和仿真结果表明,所提方案不仅能为各参与方提供合适的差分隐私保护,并有效防止通过反演推断出隐私敏感信息,而且在3个遥感数据集上相较于基于分段机制的扰动方案提升了3.28~3.93个百分点的准确率。可见,所提方案在保证隐私的同时有效保障了模型性能。 展开更多
关键词 联邦学习 差分隐私 层重要性 遥感数据 模型校正
在线阅读 下载PDF
面向多源数据的个性化联邦学习框架 被引量:2
2
作者 裴浪涛 陈学斌 +1 位作者 任志强 翟冉 《计算机工程与应用》 CSCD 北大核心 2024年第19期278-287,共10页
在联邦学习中,中心服务器聚合来自不同的客户端经过差分隐私扰动后的模型,其中差分隐私噪声添加的大小和隐私预算的分配直接影响到模型的可用性,现有的研究大多基于平衡的数据和固定的隐私预算,在处理多源不平衡数据时难以权衡精度与隐... 在联邦学习中,中心服务器聚合来自不同的客户端经过差分隐私扰动后的模型,其中差分隐私噪声添加的大小和隐私预算的分配直接影响到模型的可用性,现有的研究大多基于平衡的数据和固定的隐私预算,在处理多源不平衡数据时难以权衡精度与隐私保护水平,针对该问题提出了一种具有自适应差分隐私噪声添加的联邦学习框架,采取基于沙普利值的贡献度证明算法计算不同数据来源的客户端的贡献度,并依据贡献度为不同客户端在梯度更新的过程中添加差异化的差分隐私噪声,继而实现个性化的隐私保护。理论和实验分析表明该框架面对多源不平衡数据时不仅可以为不同参与方提供更加细化的隐私保护水平,同时在模型性能方面也比传统的FL-DP算法高出1.3个百分点。 展开更多
关键词 联邦学习 差分隐私 沙普利值 不平衡数据
在线阅读 下载PDF
PFKD:综合考虑数据异构和模型异构的个性化联邦学习框架 被引量:1
3
作者 陈学斌 任志强 《南京信息工程大学学报》 CAS 北大核心 2024年第4期513-519,共7页
联邦学习是解决机器学习中数据共享和隐私保护两个关键难题的重要方法.然而,联邦学习本身也面临着数据异构和模型异构的挑战.现有研究往往只专注于解决其中一个方面的问题,忽视了两者之间的关联性.为此,本文提出了一个名为PFKD的框架,... 联邦学习是解决机器学习中数据共享和隐私保护两个关键难题的重要方法.然而,联邦学习本身也面临着数据异构和模型异构的挑战.现有研究往往只专注于解决其中一个方面的问题,忽视了两者之间的关联性.为此,本文提出了一个名为PFKD的框架,该框架通过知识蒸馏技术解决模型异构问题,通过个性化算法解决数据异构问题,以实现更具个性化的联邦学习.通过实验分析验证了所提出框架的有效性.实验结果显示,该框架能够突破模型的性能瓶颈,提高模型精度约1个百分点.此外,在调整适当的超参数后,该框架的性能得到进一步提升. 展开更多
关键词 联邦学习 数据异构 模型异构
在线阅读 下载PDF
基于评分预测与图模型扩散的推荐方法
4
作者 王柳 陈学斌 +2 位作者 高远 马凯光 赵桐 《计算机应用研究》 北大核心 2025年第11期3284-3290,共7页
针对协同过滤算法存在数据稀疏性和局部推荐的问题,提出一种基于评分预测与图模型扩散的推荐方法SIRR。该推荐方法首先根据用户对物品的评分数量,设计算法动态切换机制预测用户对未评分物品的评分,从而解决数据稀疏性问题;其次,基于正... 针对协同过滤算法存在数据稀疏性和局部推荐的问题,提出一种基于评分预测与图模型扩散的推荐方法SIRR。该推荐方法首先根据用户对物品的评分数量,设计算法动态切换机制预测用户对未评分物品的评分,从而解决数据稀疏性问题;其次,基于正则化的余弦相似度提升了相似度计算的准确性和协同过滤算法的鲁棒性;最后,为解决局部推荐问题,通过图的加权随机游走扩展推荐范围,提高推荐的覆盖率。为平衡推荐的准确性和多样性,通过融合评分权重实现了优化。在两个不同类型的数据集上对正则化余弦相似度的有效性进行验证,在三个稀疏度不同的数据集上将所提方法与三种基线算法进行比较。仿真结果表明,SIRR与已有的推荐算法相比,在各指标上均表现出良好性能,为解决数据稀疏性和局部推荐问题提供了一种有效的解决方案。 展开更多
关键词 局部推荐 评分预测 正则化余弦相似度 图的加权随机游走 评分权重
在线阅读 下载PDF
基于知识蒸馏的联邦学习后门攻击方法
5
作者 赵桐 陈学斌 +2 位作者 王柳 景忠瑞 钟琪 《计算机科学》 北大核心 2025年第11期434-443,共10页
联邦学习能够使不同参与者利用私人数据集共同训练一个全局模型。然而,联邦学习的分布式特性,也为后门攻击提供了空间。后门攻击中的攻击者对全局模型进行投毒,使全局模型在遇到带有特定后门触发器的样本时被误导至有针对性的错误预测... 联邦学习能够使不同参与者利用私人数据集共同训练一个全局模型。然而,联邦学习的分布式特性,也为后门攻击提供了空间。后门攻击中的攻击者对全局模型进行投毒,使全局模型在遇到带有特定后门触发器的样本时被误导至有针对性的错误预测。对此,提出了一种基于知识蒸馏的联邦学习后门攻击方法(KDFLBD)。首先,利用蒸馏生成的浓缩毒化数据集训练教师模型,并将教师模型的“暗知识”传递给学生模型,以提炼恶意神经元。然后,通过神经元Z分数排序和混合,将带有后门的神经元嵌入全局模型。在常见数据集上评估了KDFLBD在iid和non-iid场景下的性能,相较于像素攻击和标签翻转攻击,KDFLBD在保证主任务准确率(MTA)不受影响的同时,显著提升了攻击成功率(ASR)。 展开更多
关键词 联邦学习 后门攻击 知识蒸馏 触发器 隐私保护
在线阅读 下载PDF
基于凝聚式层次聚类的微调筛选过采样方法
6
作者 谷铮 陈学斌 +1 位作者 张宏扬 李雨欣 《计算机应用》 北大核心 2025年第7期2138-2144,共7页
针对不平衡数据集分类效果差的问题,提出一种基于凝聚式层次聚类(AHC)的微调筛选过采样方法,该方法可适用于不平衡数据的多分类情况。首先,在不平衡数据集的聚类过程中应用AHC算法,分别聚类多数类与少数类,从而在考虑类别间关系的同时... 针对不平衡数据集分类效果差的问题,提出一种基于凝聚式层次聚类(AHC)的微调筛选过采样方法,该方法可适用于不平衡数据的多分类情况。首先,在不平衡数据集的聚类过程中应用AHC算法,分别聚类多数类与少数类,从而在考虑类别间关系的同时有效避免类重叠问题;其次,为了平衡数据集并保留原始数据的特征,设计一种微调过采样算法;再次,为了提升生成样本的分类准确率,提出一种基于倾向评分匹配的标签倾向评估与筛选方法;最后,通过实验对所提出的方法进行验证,并将该方法与MDO(Mahalanobis Distance-based Over-sampling technique)、AND-SMOTE(Automatic Neighborhood size Determination method for Synthetic Minority Over-sampling TEchnique)和K-means SMOTE这3种方法进行比较。实验结果表明,在Abalone、Contraceptive和Yeast等6个不同的数据集上,所提方法展现出了良好的性能,验证了它的有效性。 展开更多
关键词 不平衡数据 多分类 过采样 凝聚式层次聚类 标签倾向评估
在线阅读 下载PDF
基于差分隐私的联邦学习研究综述
7
作者 张淑芬 汤本建 +1 位作者 田子坤 秦肖阳 《计算机应用》 北大核心 2025年第10期3221-3230,共10页
随着人工智能的快速发展,用户隐私泄露风险日益严重。差分隐私是一种关键的隐私保护技术,通过在数据中引入噪声防止个人信息泄露,而联邦学习(FL)则允许在不交换数据的情况下共同训练模型,保护数据的安全性。近年来,差分隐私技术与FL的... 随着人工智能的快速发展,用户隐私泄露风险日益严重。差分隐私是一种关键的隐私保护技术,通过在数据中引入噪声防止个人信息泄露,而联邦学习(FL)则允许在不交换数据的情况下共同训练模型,保护数据的安全性。近年来,差分隐私技术与FL的结合使用可以充分发挥它们各自的优势:差分隐私确保数据使用过程中的隐私保护,而FL则通过分布式训练提高模型的泛化能力和效率。针对FL的隐私安全问题,首先,系统性地总结和比较基于差分隐私的FL的最新研究进展,包括不同的差分隐私机制、FL算法和应用场景;其次,重点讨论差分隐私在FL中的应用方式,包括数据聚合、梯度下降和模型训练等方面,并分析各种技术的优缺点;最后,详细总结该领域当前存在的挑战和发展方向。 展开更多
关键词 联邦学习 差分隐私 数据聚合 梯度下降 模型训练
在线阅读 下载PDF
基于历史模型更新的自适应防御机制FedAud
8
作者 任志强 陈学斌 《计算机应用》 北大核心 2025年第2期490-496,共7页
联邦学习(FL)已成为一种在分散的边缘设备上训练机器学习模型并保护数据隐私的有前景的方法。然而,FL系统容易受到拜占庭攻击的影响,即恶意客户端可能会破坏全局模型的完整性。此外,现有的部分防御方法存在较大的计算开销。针对上述问题... 联邦学习(FL)已成为一种在分散的边缘设备上训练机器学习模型并保护数据隐私的有前景的方法。然而,FL系统容易受到拜占庭攻击的影响,即恶意客户端可能会破坏全局模型的完整性。此外,现有的部分防御方法存在较大的计算开销。针对上述问题,提出一种自适应防御机制FedAud,该机制旨在减小服务端的计算开销,同时确保FL系统对拜占庭攻击的鲁棒性。FedAud结合异常检测模块和信誉机制,并基于历史模型更新动态调整防御策略。使用MNIST和CIFAR-10数据集在不同的攻击场景和防御方法下进行评估的实验结果表明,FedAud能有效降低防御方法的执行频率,从而减轻服务器的计算负担,并提高FL的效率,特别是在防御方法计算开销大或训练周期较长的情况下。此外,FedAud能保持模型的准确性,并在某些情况下提升模型的性能,验证了它在实际FL部署中的有效性。 展开更多
关键词 联邦学习 拜占庭攻击 异常检测 计算开销 通信效率
在线阅读 下载PDF
改进GRU的钢铁生产能耗特征自适应提取模型
9
作者 张淑芬 李雨欣 +2 位作者 屈昌盛 谷铮 高瑞 《河南理工大学学报(自然科学版)》 北大核心 2025年第4期1-10,共10页
目的针对传统模型在钢铁生产工序中能耗特征提取不充分的问题,方法提出一种自适应特征提取模型AGRU-Attention。该模型通过引入自适应机制,实现对输入特征权重的动态调整和对GRU(gated recurrent unit,GRU)模型的改进。首先,利用自适应... 目的针对传统模型在钢铁生产工序中能耗特征提取不充分的问题,方法提出一种自适应特征提取模型AGRU-Attention。该模型通过引入自适应机制,实现对输入特征权重的动态调整和对GRU(gated recurrent unit,GRU)模型的改进。首先,利用自适应门控单元(adaptive gate unit,AGU)动态调整特征权重,使模型更准确地关注到能耗预测特征因子;其次,通过门控循环单元层充分提取调整后的能耗特征;最后,利用注意力机制对提取出的特征进行加权处理,并将加权后的特征输入到全连接层进行预测输出。为验证所提模型的自适应能力,使用不同来源和数据量的2个数据集,将本文模型与线性回归、支持向量机、CNN、LSTM模型和文献[19]提出的序列到序列GRU模型进行对比。结果结果表明,AGRU-Attention模型在2个数据集中的预测精度明显优于其他模型。相较于AGRU模型,AGRU-Attention模型在数据集1上的MSE,RMSE,MAE分别降低了99.99%,99.71%,99.67%;在数据集2上的MSE,RMSE,MAE分别降低了98.64%,88.36%,91.27%。这表明AGRU-Attention模型在生产能耗预测中准确性更高。结论所提模型不仅实现了对输入特征权重的自适应调整,准确提取了不同数据集特征,而且通过注意力机制对特征进行加权,显著提升了模型预测的准确性。 展开更多
关键词 自适应特征提取 注意力机制 钢铁生产 能耗数据
在线阅读 下载PDF
联邦学习的公平性综述
10
作者 张淑芬 张宏扬 +1 位作者 任志强 陈学斌 《计算机应用》 北大核心 2025年第1期1-14,共14页
联邦学习(FL)凭借分布式结构和隐私安全的优势快速发展,但大规模FL引发的公平性问题影响了FL系统的可持续性。针对FL的公平性问题,对近年FL公平性的研究工作进行了系统梳理和深度分析。首先,对FL的工作流程和定义进行了解释,总结了FL中... 联邦学习(FL)凭借分布式结构和隐私安全的优势快速发展,但大规模FL引发的公平性问题影响了FL系统的可持续性。针对FL的公平性问题,对近年FL公平性的研究工作进行了系统梳理和深度分析。首先,对FL的工作流程和定义进行了解释,总结了FL中的偏见和公平性概念;其次,详细归纳了FL公平性研究中常用的数据集,探讨了公平性研究所面临的挑战;最后,从数据源选择、模型优化、贡献评估和激励机制这4个方面归纳梳理了相关研究工作的优缺点、适用场景以及实验设置等,并展望了FL公平性未来的研究方向和趋势。 展开更多
关键词 联邦学习 公平性 数据选择 模型优化 贡献评估 激励机制
在线阅读 下载PDF
基于自适应差分隐私与客户选择优化的联邦学习方法
11
作者 徐超 张淑芬 +2 位作者 陈海田 彭璐璐 张帅华 《计算机应用》 北大核心 2025年第2期482-489,共8页
将差分隐私应用于联邦学习的方法是保护训练数据隐私的关键技术之一。针对之前多数工作未考虑参数的异质性,对训练参数均匀裁剪使每轮加入的噪声都是均匀的,从而影响模型收敛和训练参数质量的问题,提出一种基于梯度裁剪的自适应噪声添... 将差分隐私应用于联邦学习的方法是保护训练数据隐私的关键技术之一。针对之前多数工作未考虑参数的异质性,对训练参数均匀裁剪使每轮加入的噪声都是均匀的,从而影响模型收敛和训练参数质量的问题,提出一种基于梯度裁剪的自适应噪声添加方案。考虑梯度的异质性,在不同轮次为不同客户端执行自适应的梯度裁剪,从而使噪声大小自适应调整;同时,为进一步提升模型性能,对比传统的客户端随机采样方式,提出一种结合轮盘赌与精英保留的客户端采样方法。结合上述2种方法,提出一种结合客户端选择的自适应差分隐私联邦学习(CS&AGC DP_FL)方法。实验结果表明,在隐私预算为0.5时,相较于自适应差分隐私的联邦学习方法(Adapt DP_FL),所提方法能在相同级别的隐私约束下使最终的模型分类准确率提升4.9个百分点,并且在收敛速度方面,所提方法相较于对比方法进入收敛状态所需的轮次减少了4~10轮。 展开更多
关键词 联邦学习 差分隐私 自适应噪声 轮盘赌 精英保留
在线阅读 下载PDF
面向个性化与公平性的联邦学习算法
12
作者 张宏扬 张淑芬 谷铮 《计算机应用》 北大核心 2025年第7期2123-2131,共9页
作为一种分布式优化范式,联邦学习(FL)允许大量资源有限的客户端节点在不共享数据时协同训练模型。然而,传统联邦学习算法,如FedAvg,通常未充分考虑公平性的问题。在实际场景中,数据分布通常具备高度异构性,常规的聚合操作可能会使模型... 作为一种分布式优化范式,联邦学习(FL)允许大量资源有限的客户端节点在不共享数据时协同训练模型。然而,传统联邦学习算法,如FedAvg,通常未充分考虑公平性的问题。在实际场景中,数据分布通常具备高度异构性,常规的聚合操作可能会使模型对某些客户端产生偏见,导致全局模型在客户端本地的性能分布出现巨大差异。针对这一问题,提出一种面向个性化与公平性的联邦学习FedPF(Federated learning for Personalization and Fairness)算法。FedPF旨在有效减少联邦学习中低效的聚合行为,并通过寻找全局模型与本地模型的相关性,在客户端之间分配个性化模型,从而在保证全局模型性能的同时,使客户端本地性能分布更均衡。将FedPF在Synthetic、MNIST以及CIFAR10数据集上进行实验和性能分析,并与FedProx、q-FedAvg和FedAvg这3种联邦学习算法进行对比。实验结果表明,FedPF在有效性和公平性上均得到了有效提升。 展开更多
关键词 联邦学习 公平 个性化 异构数据 客户端选择
在线阅读 下载PDF
基于联邦集成算法对多源数据安全性的研究 被引量:5
13
作者 罗长银 陈学斌 +1 位作者 刘洋 张淑芬 《计算机工程与科学》 CSCD 北大核心 2021年第8期1387-1397,共11页
联邦学习是隐私保护领域关注的热点内容,存在难以集中本地模型参数与因梯度更新造成数据泄露的问题。提出了一种联邦集成算法,使用256 B的密钥将不同类型的初始化模型传输至各数据源并训练,使用不同的集成算法来整合本地模型参数,使数... 联邦学习是隐私保护领域关注的热点内容,存在难以集中本地模型参数与因梯度更新造成数据泄露的问题。提出了一种联邦集成算法,使用256 B的密钥将不同类型的初始化模型传输至各数据源并训练,使用不同的集成算法来整合本地模型参数,使数据与模型的安全性得到很大提升。仿真结果表明,对于中小数据集而言,使用Adaboost集成算法得到的模型准确率达到92.505%,标准差约为8.6×10-8,对于大数据集而言,采用stacking集成算法得到的模型的准确率达到92.495%,标准差约为8.85×10-8,与传统整合多方数据集中训练模型的方法相比,在保证准确率的同时兼顾了数据与模型的安全性。 展开更多
关键词 联邦学习 集成算法 隐私保护 联邦集成算法
在线阅读 下载PDF
基于图像梯度的数据增广方法 被引量:3
14
作者 刘之瑜 张淑芬 +2 位作者 刘洋 罗长银 李敏 《应用科学学报》 CAS CSCD 北大核心 2021年第2期302-311,共10页
卷积神经网络用于图像识别的分类任务,需要大规模的图像数据集进行训练。因需要采集目标图像数量和设备条件的限制,采用常规方法难以获取足够多的图像样本,且耗时耗力耗财。目前已提出了多种多样的样本增广方法来解决图像样本不足的问题... 卷积神经网络用于图像识别的分类任务,需要大规模的图像数据集进行训练。因需要采集目标图像数量和设备条件的限制,采用常规方法难以获取足够多的图像样本,且耗时耗力耗财。目前已提出了多种多样的样本增广方法来解决图像样本不足的问题,本文介绍了数据增广的研究背景和意义。以提高卷积神经网络的图像识别的准确率为目的,针对图像数据增广提出了基于图像梯度的数据增广方法。选取最大图像梯度值,通过精准裁剪方法增加图像样本,扩增图像数据集,使用增广后的数据集对卷积神经网络进行训练。应用Tensorflow深度学习框架和VGG16网络模型,选取PlantVillage的部分数据集,将训练集数据增广至原来的6倍,对扩增前后的训练集进行训练和对比。实验结果表明:使用数据增广后训练集训练的模型的准确率提升4.18%。 展开更多
关键词 数据增广 图像梯度 卷积神经网络 Tensorflow深度学习框架 PlantVillage数据集
在线阅读 下载PDF
联邦学习中的安全威胁与防御措施综述 被引量:11
15
作者 陈学斌 任志强 张宏扬 《计算机应用》 CSCD 北大核心 2024年第6期1663-1672,共10页
联邦学习是一种用于解决机器学习中数据共享问题和隐私保护问题的分布式学习方法,旨在多方共同训练一个机器学习模型并保护数据的隐私;但是,联邦学习本身存在安全威胁,这使得联邦学习在实际应用中面临巨大的挑战,因此,分析联邦学习面临... 联邦学习是一种用于解决机器学习中数据共享问题和隐私保护问题的分布式学习方法,旨在多方共同训练一个机器学习模型并保护数据的隐私;但是,联邦学习本身存在安全威胁,这使得联邦学习在实际应用中面临巨大的挑战,因此,分析联邦学习面临的攻击和相应的防御措施对联邦学习的发展和应用至关重要。首先,介绍联邦学习的定义、流程和分类,联邦学习中的攻击者模型;其次,从联邦学习系统的鲁棒性和隐私性两方面介绍可能遭受的攻击,并介绍不同攻击相应的防御措施,同时也指出防御方案的不足;最后,展望安全的联邦学习系统。 展开更多
关键词 联邦学习 隐私保护 攻击与防御 机器学习 鲁棒性与隐私性
在线阅读 下载PDF
基于遗传算法和支持向量机的XSS攻击检测方法 被引量:4
16
作者 马征 陈学斌 +1 位作者 张国鹏 翟冉 《江苏大学学报(自然科学版)》 CAS 北大核心 2024年第6期686-693,共8页
针对现有基于过滤器、动态分析、静态分析等的解决方案在检测未知XSS攻击方面效果不佳的问题,利用机器学习方法可高效检测出未知XSS攻击的特点,提出一种基于遗传算法和支持向量机的XSS攻击检测模型.通过模糊测试生成XSS攻击预样本,利用... 针对现有基于过滤器、动态分析、静态分析等的解决方案在检测未知XSS攻击方面效果不佳的问题,利用机器学习方法可高效检测出未知XSS攻击的特点,提出一种基于遗传算法和支持向量机的XSS攻击检测模型.通过模糊测试生成XSS攻击预样本,利用遗传算法搜索特征空间,迭代生成最优测试用例,从而扩充数据集、丰富XSS攻击向量库.给出了基于遗传算法和支持向量机的攻击检测模型,确定了XSS测试用例编码规则.进行了适应度函数设计,完成了选择算子、交叉算子、变异算子的设计.从准确率、召回率、误报率和F_(1)值来评价分类器的检测效果,结果表明:该模型准确率达到了99.5%;对比其他检测方法,该检测模型具有更好的检测效果,并且召回率和误报率也有明显改善. 展开更多
关键词 跨站脚本攻击 模糊测试 遗传算法 支持向量机 特征向量化
在线阅读 下载PDF
满足个性化差分隐私的社交网络图生成方法 被引量:2
17
作者 高瑞 陈学斌 +1 位作者 谷铮 邹元怀 《太原理工大学学报》 北大核心 2024年第1期163-171,共9页
【目的】针对现有本地化差分隐私社交网络图生成算法中直接扰动邻居列表的方法会导致引入过多噪声且隐私保护程度不均衡的问题,提出了一种满足个性化的本地差分隐私社交网络图生成方法(GPDP)。【方法】首先,使用传统的社区发现算法Louv... 【目的】针对现有本地化差分隐私社交网络图生成算法中直接扰动邻居列表的方法会导致引入过多噪声且隐私保护程度不均衡的问题,提出了一种满足个性化的本地差分隐私社交网络图生成方法(GPDP)。【方法】首先,使用传统的社区发现算法Louvain对原始社交网络图进行划分,保留社区信息;其次,对于划分后的社区根据其社区内部平均权重度比值作为新的隐私预算参数分配给每个节点;然后,每个节点根据新的隐私预算各自扰动其邻居列表,同时利用随机邻接位向量(RABV)方法降低通讯成本;最后合并邻居列表形成生成图。【结果】通过在真实数据集上的实验结果表明,该算法在发布合成图数据时保证了数据隐私性和可用性的均衡,同时保留了更多的社区结构信息。 展开更多
关键词 个性化差分隐私 社交网络 隐私保护 合成图生成
在线阅读 下载PDF
基于差分隐私的直方图发布方法综述 被引量:1
18
作者 陈学斌 单丽洋 郭如敏 《计算机应用》 CSCD 北大核心 2024年第10期3114-3121,共8页
在数字经济时代,数据发布是数据共享的重要环节。直方图数据发布是数据发布的常见方式,但它面临着隐私泄露的问题。为此,对基于差分隐私(DP)的直方图数据发布方法进行了研究。首先,介绍了DP和直方图的相关性质,以及近5年国内外针对静态... 在数字经济时代,数据发布是数据共享的重要环节。直方图数据发布是数据发布的常见方式,但它面临着隐私泄露的问题。为此,对基于差分隐私(DP)的直方图数据发布方法进行了研究。首先,介绍了DP和直方图的相关性质,以及近5年国内外针对静态数据集和流数据的直方图发布方法的研究,并讨论了静态数据下直方图分组数、分组方式、噪声误差和分组误差的均衡,以及隐私预算分配问题。其次,探讨了动态数据下数据采样、数据预测以及滑动窗口实现分组的问题;同时针对面向区间树结构的DP直方图发布方法,将原始数据与树结构进行转化,并讨论了树结构数据的加噪、基于树结构的优化、树结构的隐私预算的分配等;此外,还讨论了直方图发布数据的可用性和隐私性、查询范围和查询精度问题。最后,通过对相关算法进行对比分析,总结了各算法的优缺点,以及部分算法的定量分析比较及适用场景,展望了未来基于DP的直方图在不同数据场景中的研究方向。 展开更多
关键词 数据发布 直方图发布 差分隐私 隐私预算 均方误差
在线阅读 下载PDF
面向联邦学习的后门攻击与防御综述 被引量:1
19
作者 陈学斌 屈昌盛 《计算机应用》 CSCD 北大核心 2024年第11期3459-3469,共11页
联邦学习(FL)作为一种分布式的机器学习方法,允许不同参与方利用各自的本地数据集合作训练一个机器模型,因此能够解决数据孤岛与用户隐私保护问题。但是,FL本身的分布式特性使它更容易受到后门攻击,这为它的实际应用带来了更大的挑战。... 联邦学习(FL)作为一种分布式的机器学习方法,允许不同参与方利用各自的本地数据集合作训练一个机器模型,因此能够解决数据孤岛与用户隐私保护问题。但是,FL本身的分布式特性使它更容易受到后门攻击,这为它的实际应用带来了更大的挑战。因此,深入了解FL环境下的后门攻击与防御方法对该领域的发展至关重要。首先,介绍了FL的定义、流程和分类以及后门攻击的定义;其次,从FL环境下的后门攻击和后门防御方案这两个方面进行了详细介绍与分析,并对后门攻击和后门防御方法进行对比;最后,对FL环境下的后门攻击与防御方法的发展进行了展望。 展开更多
关键词 联邦学习 后门攻击 后门防御 隐私保护 机器学习
在线阅读 下载PDF
面向Stacking算法的差分隐私保护研究 被引量:1
20
作者 董燕灵 张淑芬 +1 位作者 徐精诚 王豪石 《计算机工程与科学》 CSCD 北大核心 2024年第2期244-252,共9页
为解决同质集成学习算法对噪声更敏感,难以兼顾较好的预测性能和有效的隐私保护这一问题,提出一种基于差分隐私的DPStacking算法,将异质Stacking算法与差分隐私技术相结合,以优化算法的隐私保护和预测性能。但是,由于Stacking算法的低... 为解决同质集成学习算法对噪声更敏感,难以兼顾较好的预测性能和有效的隐私保护这一问题,提出一种基于差分隐私的DPStacking算法,将异质Stacking算法与差分隐私技术相结合,以优化算法的隐私保护和预测性能。但是,由于Stacking算法的低层和高层模型都可以由不同的学习器构成,若对某个具体学习器设计隐私预算分配方案来提供差分隐私保护,该方案往往无法适用于由任意基学习器和元学习构成的Stacking算法。基于此,设计了一种基于元学习器的隐私预算分配方案,此方案根据皮尔逊相关系数及差分隐私并行组合的特性为元学习器输入的不同构成体分配不同的隐私预算。通过理论与实验验证,DPStacking算法符合ε-差分隐私保护,与基于差分隐私的随机森林算法(DiffRFs)、Adaboost算法(DP-AdaBoost)、XGBoost算法(DPXGB)相比,能有效保护数据隐私的同时拥有更好的预测性能,并较好地解决了单一同质集成学习算法对噪声更加敏感的问题。 展开更多
关键词 差分隐私 隐私预算分配 Stacking算法 集成学习
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部