期刊文献+
共找到27篇文章
< 1 2 >
每页显示 20 50 100
面向遥感数据的基于本地差分隐私的联邦学习隐私保护方案 被引量:2
1
作者 陈海田 陈学斌 +1 位作者 马锐奎 张帅华 《计算机应用》 北大核心 2025年第2期506-517,共12页
遥感数据具有高度的时空相关性以及复杂的地物特征,使得这些数据的隐私保护面临挑战。联邦学习作为一种旨在保护参与方数据隐私的分布式学习方法,为应对遥感数据隐私保护面对的挑战提供了有效的解决方案;然而,在联邦学习模型的训练阶段... 遥感数据具有高度的时空相关性以及复杂的地物特征,使得这些数据的隐私保护面临挑战。联邦学习作为一种旨在保护参与方数据隐私的分布式学习方法,为应对遥感数据隐私保护面对的挑战提供了有效的解决方案;然而,在联邦学习模型的训练阶段,恶意攻击者可能通过反演推断参与者的隐私信息,进而导致敏感信息的泄露。针对遥感数据在联邦学习训练中存在的隐私泄露问题,提出一种基于本地差分隐私的联邦学习隐私保护方案。首先,对模型进行预训练,计算模型的层重要性,并根据层重要性合理分配隐私预算;然后,通过对模型更新进行裁剪变换,并对裁剪值进行自适应随机扰动,实现本地差分隐私保护;最后,在聚合扰动更新时,采用模型校正以进一步提高模型性能。理论分析和仿真结果表明,所提方案不仅能为各参与方提供合适的差分隐私保护,并有效防止通过反演推断出隐私敏感信息,而且在3个遥感数据集上相较于基于分段机制的扰动方案提升了3.28~3.93个百分点的准确率。可见,所提方案在保证隐私的同时有效保障了模型性能。 展开更多
关键词 联邦学习 差分隐私 层重要性 遥感数据 模型校正
在线阅读 下载PDF
面向多源数据的个性化联邦学习框架 被引量:2
2
作者 裴浪涛 陈学斌 +1 位作者 任志强 翟冉 《计算机工程与应用》 CSCD 北大核心 2024年第19期278-287,共10页
在联邦学习中,中心服务器聚合来自不同的客户端经过差分隐私扰动后的模型,其中差分隐私噪声添加的大小和隐私预算的分配直接影响到模型的可用性,现有的研究大多基于平衡的数据和固定的隐私预算,在处理多源不平衡数据时难以权衡精度与隐... 在联邦学习中,中心服务器聚合来自不同的客户端经过差分隐私扰动后的模型,其中差分隐私噪声添加的大小和隐私预算的分配直接影响到模型的可用性,现有的研究大多基于平衡的数据和固定的隐私预算,在处理多源不平衡数据时难以权衡精度与隐私保护水平,针对该问题提出了一种具有自适应差分隐私噪声添加的联邦学习框架,采取基于沙普利值的贡献度证明算法计算不同数据来源的客户端的贡献度,并依据贡献度为不同客户端在梯度更新的过程中添加差异化的差分隐私噪声,继而实现个性化的隐私保护。理论和实验分析表明该框架面对多源不平衡数据时不仅可以为不同参与方提供更加细化的隐私保护水平,同时在模型性能方面也比传统的FL-DP算法高出1.3个百分点。 展开更多
关键词 联邦学习 差分隐私 沙普利值 不平衡数据
在线阅读 下载PDF
联邦学习的公平性综述 被引量:1
3
作者 张淑芬 张宏扬 +1 位作者 任志强 陈学斌 《计算机应用》 北大核心 2025年第1期1-14,共14页
联邦学习(FL)凭借分布式结构和隐私安全的优势快速发展,但大规模FL引发的公平性问题影响了FL系统的可持续性。针对FL的公平性问题,对近年FL公平性的研究工作进行了系统梳理和深度分析。首先,对FL的工作流程和定义进行了解释,总结了FL中... 联邦学习(FL)凭借分布式结构和隐私安全的优势快速发展,但大规模FL引发的公平性问题影响了FL系统的可持续性。针对FL的公平性问题,对近年FL公平性的研究工作进行了系统梳理和深度分析。首先,对FL的工作流程和定义进行了解释,总结了FL中的偏见和公平性概念;其次,详细归纳了FL公平性研究中常用的数据集,探讨了公平性研究所面临的挑战;最后,从数据源选择、模型优化、贡献评估和激励机制这4个方面归纳梳理了相关研究工作的优缺点、适用场景以及实验设置等,并展望了FL公平性未来的研究方向和趋势。 展开更多
关键词 联邦学习 公平性 数据选择 模型优化 贡献评估 激励机制
在线阅读 下载PDF
基于知识蒸馏的联邦学习后门攻击方法
4
作者 赵桐 陈学斌 +2 位作者 王柳 景忠瑞 钟琪 《计算机科学》 北大核心 2025年第11期434-443,共10页
联邦学习能够使不同参与者利用私人数据集共同训练一个全局模型。然而,联邦学习的分布式特性,也为后门攻击提供了空间。后门攻击中的攻击者对全局模型进行投毒,使全局模型在遇到带有特定后门触发器的样本时被误导至有针对性的错误预测... 联邦学习能够使不同参与者利用私人数据集共同训练一个全局模型。然而,联邦学习的分布式特性,也为后门攻击提供了空间。后门攻击中的攻击者对全局模型进行投毒,使全局模型在遇到带有特定后门触发器的样本时被误导至有针对性的错误预测。对此,提出了一种基于知识蒸馏的联邦学习后门攻击方法(KDFLBD)。首先,利用蒸馏生成的浓缩毒化数据集训练教师模型,并将教师模型的“暗知识”传递给学生模型,以提炼恶意神经元。然后,通过神经元Z分数排序和混合,将带有后门的神经元嵌入全局模型。在常见数据集上评估了KDFLBD在iid和non-iid场景下的性能,相较于像素攻击和标签翻转攻击,KDFLBD在保证主任务准确率(MTA)不受影响的同时,显著提升了攻击成功率(ASR)。 展开更多
关键词 联邦学习 后门攻击 知识蒸馏 触发器 隐私保护
在线阅读 下载PDF
基于差分隐私的联邦学习研究综述
5
作者 张淑芬 汤本建 +1 位作者 田子坤 秦肖阳 《计算机应用》 北大核心 2025年第10期3221-3230,共10页
随着人工智能的快速发展,用户隐私泄露风险日益严重。差分隐私是一种关键的隐私保护技术,通过在数据中引入噪声防止个人信息泄露,而联邦学习(FL)则允许在不交换数据的情况下共同训练模型,保护数据的安全性。近年来,差分隐私技术与FL的... 随着人工智能的快速发展,用户隐私泄露风险日益严重。差分隐私是一种关键的隐私保护技术,通过在数据中引入噪声防止个人信息泄露,而联邦学习(FL)则允许在不交换数据的情况下共同训练模型,保护数据的安全性。近年来,差分隐私技术与FL的结合使用可以充分发挥它们各自的优势:差分隐私确保数据使用过程中的隐私保护,而FL则通过分布式训练提高模型的泛化能力和效率。针对FL的隐私安全问题,首先,系统性地总结和比较基于差分隐私的FL的最新研究进展,包括不同的差分隐私机制、FL算法和应用场景;其次,重点讨论差分隐私在FL中的应用方式,包括数据聚合、梯度下降和模型训练等方面,并分析各种技术的优缺点;最后,详细总结该领域当前存在的挑战和发展方向。 展开更多
关键词 联邦学习 差分隐私 数据聚合 梯度下降 模型训练
在线阅读 下载PDF
面向个性化与公平性的联邦学习算法
6
作者 张宏扬 张淑芬 谷铮 《计算机应用》 北大核心 2025年第7期2123-2131,共9页
作为一种分布式优化范式,联邦学习(FL)允许大量资源有限的客户端节点在不共享数据时协同训练模型。然而,传统联邦学习算法,如FedAvg,通常未充分考虑公平性的问题。在实际场景中,数据分布通常具备高度异构性,常规的聚合操作可能会使模型... 作为一种分布式优化范式,联邦学习(FL)允许大量资源有限的客户端节点在不共享数据时协同训练模型。然而,传统联邦学习算法,如FedAvg,通常未充分考虑公平性的问题。在实际场景中,数据分布通常具备高度异构性,常规的聚合操作可能会使模型对某些客户端产生偏见,导致全局模型在客户端本地的性能分布出现巨大差异。针对这一问题,提出一种面向个性化与公平性的联邦学习FedPF(Federated learning for Personalization and Fairness)算法。FedPF旨在有效减少联邦学习中低效的聚合行为,并通过寻找全局模型与本地模型的相关性,在客户端之间分配个性化模型,从而在保证全局模型性能的同时,使客户端本地性能分布更均衡。将FedPF在Synthetic、MNIST以及CIFAR10数据集上进行实验和性能分析,并与FedProx、q-FedAvg和FedAvg这3种联邦学习算法进行对比。实验结果表明,FedPF在有效性和公平性上均得到了有效提升。 展开更多
关键词 联邦学习 公平 个性化 异构数据 客户端选择
在线阅读 下载PDF
基于自适应差分隐私与客户选择优化的联邦学习方法
7
作者 徐超 张淑芬 +2 位作者 陈海田 彭璐璐 张帅华 《计算机应用》 北大核心 2025年第2期482-489,共8页
将差分隐私应用于联邦学习的方法是保护训练数据隐私的关键技术之一。针对之前多数工作未考虑参数的异质性,对训练参数均匀裁剪使每轮加入的噪声都是均匀的,从而影响模型收敛和训练参数质量的问题,提出一种基于梯度裁剪的自适应噪声添... 将差分隐私应用于联邦学习的方法是保护训练数据隐私的关键技术之一。针对之前多数工作未考虑参数的异质性,对训练参数均匀裁剪使每轮加入的噪声都是均匀的,从而影响模型收敛和训练参数质量的问题,提出一种基于梯度裁剪的自适应噪声添加方案。考虑梯度的异质性,在不同轮次为不同客户端执行自适应的梯度裁剪,从而使噪声大小自适应调整;同时,为进一步提升模型性能,对比传统的客户端随机采样方式,提出一种结合轮盘赌与精英保留的客户端采样方法。结合上述2种方法,提出一种结合客户端选择的自适应差分隐私联邦学习(CS&AGC DP_FL)方法。实验结果表明,在隐私预算为0.5时,相较于自适应差分隐私的联邦学习方法(Adapt DP_FL),所提方法能在相同级别的隐私约束下使最终的模型分类准确率提升4.9个百分点,并且在收敛速度方面,所提方法相较于对比方法进入收敛状态所需的轮次减少了4~10轮。 展开更多
关键词 联邦学习 差分隐私 自适应噪声 轮盘赌 精英保留
在线阅读 下载PDF
联邦学习中的安全威胁与防御措施综述 被引量:11
8
作者 陈学斌 任志强 张宏扬 《计算机应用》 CSCD 北大核心 2024年第6期1663-1672,共10页
联邦学习是一种用于解决机器学习中数据共享问题和隐私保护问题的分布式学习方法,旨在多方共同训练一个机器学习模型并保护数据的隐私;但是,联邦学习本身存在安全威胁,这使得联邦学习在实际应用中面临巨大的挑战,因此,分析联邦学习面临... 联邦学习是一种用于解决机器学习中数据共享问题和隐私保护问题的分布式学习方法,旨在多方共同训练一个机器学习模型并保护数据的隐私;但是,联邦学习本身存在安全威胁,这使得联邦学习在实际应用中面临巨大的挑战,因此,分析联邦学习面临的攻击和相应的防御措施对联邦学习的发展和应用至关重要。首先,介绍联邦学习的定义、流程和分类,联邦学习中的攻击者模型;其次,从联邦学习系统的鲁棒性和隐私性两方面介绍可能遭受的攻击,并介绍不同攻击相应的防御措施,同时也指出防御方案的不足;最后,展望安全的联邦学习系统。 展开更多
关键词 联邦学习 隐私保护 攻击与防御 机器学习 鲁棒性与隐私性
在线阅读 下载PDF
面向联邦学习的后门攻击与防御综述 被引量:1
9
作者 陈学斌 屈昌盛 《计算机应用》 CSCD 北大核心 2024年第11期3459-3469,共11页
联邦学习(FL)作为一种分布式的机器学习方法,允许不同参与方利用各自的本地数据集合作训练一个机器模型,因此能够解决数据孤岛与用户隐私保护问题。但是,FL本身的分布式特性使它更容易受到后门攻击,这为它的实际应用带来了更大的挑战。... 联邦学习(FL)作为一种分布式的机器学习方法,允许不同参与方利用各自的本地数据集合作训练一个机器模型,因此能够解决数据孤岛与用户隐私保护问题。但是,FL本身的分布式特性使它更容易受到后门攻击,这为它的实际应用带来了更大的挑战。因此,深入了解FL环境下的后门攻击与防御方法对该领域的发展至关重要。首先,介绍了FL的定义、流程和分类以及后门攻击的定义;其次,从FL环境下的后门攻击和后门防御方案这两个方面进行了详细介绍与分析,并对后门攻击和后门防御方法进行对比;最后,对FL环境下的后门攻击与防御方法的发展进行了展望。 展开更多
关键词 联邦学习 后门攻击 后门防御 隐私保护 机器学习
在线阅读 下载PDF
基于半监督联邦学习的恶意流量检测模型
10
作者 张帅华 张淑芬 +2 位作者 周明川 徐超 陈学斌 《计算机应用》 CSCD 北大核心 2024年第11期3487-3494,共8页
恶意流量检测是应对网络安全挑战的关键技术之一。针对采用联邦学习进行恶意流量检测时,本地标记数据不足,非独立同分布(non-IID)导致协同训练模型性能下降的问题,构建一种基于半监督联邦学习的恶意流量检测模型。该模型借助伪标记和一... 恶意流量检测是应对网络安全挑战的关键技术之一。针对采用联邦学习进行恶意流量检测时,本地标记数据不足,非独立同分布(non-IID)导致协同训练模型性能下降的问题,构建一种基于半监督联邦学习的恶意流量检测模型。该模型借助伪标记和一致性正则化项的半监督学习技术,有效地从未标记数据中提取信息进行训练;同时,设计一种非线性函数,用于动态调整客户端本地有监督和无监督损失在聚合时的权重,以充分利用未标记数据,提高模型的准确性。为降低non-IID问题对全局模型性能的影响,提出一种联邦聚合算法FedLD(Federated-Loss-Data),通过结合训练损失和数据量的权重计算方法,自适应地调整全局模型聚合过程中各客户端模型的权重。实验结果表明,在NSL-KDD数据集上,所提模型在标记数据有限的情况下能够实现较高的检测准确率,与基线模型FedSem(Federated Semi-supervised)相比,检测准确率提升了4.11个百分点,在正常流量(Normal)、拒绝服务(DoS)攻击和探测(Probe)等类别上的召回率也提升了1.65~7.66个百分点,说明所提模型更适用于恶意流量检测领域。 展开更多
关键词 联邦学习 半监督学习 恶意流量检测 一致性正则化 动态聚合权重
在线阅读 下载PDF
基于标签分类的联邦学习客户端选择方法
11
作者 张祖篡 陈学斌 +1 位作者 高瑞 邹元怀 《计算机应用》 CSCD 北大核心 2024年第12期3759-3765,共7页
联邦学习作为一种分布式的机器学习方法,在保护数据隐私的同时可以充分挖掘数据中的价值;然而传统的联邦学习训练方法只是随机选择参与客户端,难以适应非独立同分布(Non-IID)数据集。针对Non-IID数据下联邦学习模型精度低、收敛慢等问题... 联邦学习作为一种分布式的机器学习方法,在保护数据隐私的同时可以充分挖掘数据中的价值;然而传统的联邦学习训练方法只是随机选择参与客户端,难以适应非独立同分布(Non-IID)数据集。针对Non-IID数据下联邦学习模型精度低、收敛慢等问题,提出一种基于标签分类的联邦学习客户端选择方法(FedLCCS)。首先,按照频数统计结果分类排序客户端数据集标签;其次,选择拥有高频数标签的客户端参与训练;最后,通过调节自有参数获取不同精度的模型。在MNIST、Fashion-MNIST和Cifar-10数据集上的实验结果表明,结合FedLCCS后的联邦平均(FedAvg)和联邦近端优化(FedProx)这2种基线方法相较于原始方法在初始数据集标签选择比例下的准确率至少提高了9.13和6.53个百分点,收敛速度至少提升了57.41%和18.52%,运行时间至少降低了7.60%和17.62%。以上验证了FedLCCS可以优化联邦模型的精度、收敛速度和运行效率,且能够训练不同准确率的模型以应对多样化的需求。 展开更多
关键词 联邦学习 非独立同分布 客户端选择 频数统计 分类排序
在线阅读 下载PDF
基于三支决策特征选择的安卓恶意软件检测 被引量:1
12
作者 陈丽芳 王嘉优 +2 位作者 施永辉 韩阳 代琪 《信息安全研究》 北大核心 2025年第6期561-568,共8页
Android恶意软件检测数据集中存在大量不相关和冗余的特征,单一的特征选择方法并不能有效去除不相关或冗余特征.如果移除信息量较大的特征则容易引发模型崩塌的问题.针对以上问题,提出一种基于三支决策特征选择(three-way decision feat... Android恶意软件检测数据集中存在大量不相关和冗余的特征,单一的特征选择方法并不能有效去除不相关或冗余特征.如果移除信息量较大的特征则容易引发模型崩塌的问题.针对以上问题,提出一种基于三支决策特征选择(three-way decision feature selection,3WDFS)的安卓恶意软件检测方法.该方法结合三支决策的思想,并行使用多种特征选择方法评估数据集的特征,将特征分为不相交的正域、负域和边界域;然后,分别利用近似马尔可夫毯和信息量差异删除边界域中的类间冗余特征和类内冗余特征,形成低冗余的边界域;最后,通过可学习权重参数级联拼接正域和低冗余边界域,输入分类模型训练学习.在公开数据集上的实验结果表明,3WDFS能够有效删除Android恶意软件检测中不相关和冗余的特征,提高检测恶意软件的检测效率和准确率. 展开更多
关键词 Android软件 三支决策 特征选择 冗余特征 恶意软件检测
在线阅读 下载PDF
基于多方向混合滤波器的轻量化图像隐写分析模型
13
作者 胡原平 阎红灿 刘盈 《信息安全研究》 北大核心 2025年第4期318-325,共8页
针对当前图像隐写分析模型参数量庞大、泛化能力有限、准确率不高等问题,构建了一个基于多方向混合滤波器的轻量化图像隐写分析模型.该模型设计多方向、多尺寸的高低频混合滤波器组并应用通道注意力机制对图像进行预处理,自适应地提取... 针对当前图像隐写分析模型参数量庞大、泛化能力有限、准确率不高等问题,构建了一个基于多方向混合滤波器的轻量化图像隐写分析模型.该模型设计多方向、多尺寸的高低频混合滤波器组并应用通道注意力机制对图像进行预处理,自适应地提取图像中有效特征,提高模型的泛化能力;特征提取模块设计包含残差模块的多层卷积,对图像特征进行深度提取,提高模型对特征的捕捉能力;降维模块采用深度可分离卷积代替传统卷积,有效降低模型参数量,实现轻量化.实验数据对比分析表明,该模型具有轻量化特点和较好的泛化能力,同时提高了隐写分析的准确性. 展开更多
关键词 图像隐写分析 混合滤波器 通道注意力机制 深层卷积 深度可分离卷积
在线阅读 下载PDF
基于历史模型更新的自适应防御机制FedAud
14
作者 任志强 陈学斌 《计算机应用》 北大核心 2025年第2期490-496,共7页
联邦学习(FL)已成为一种在分散的边缘设备上训练机器学习模型并保护数据隐私的有前景的方法。然而,FL系统容易受到拜占庭攻击的影响,即恶意客户端可能会破坏全局模型的完整性。此外,现有的部分防御方法存在较大的计算开销。针对上述问题... 联邦学习(FL)已成为一种在分散的边缘设备上训练机器学习模型并保护数据隐私的有前景的方法。然而,FL系统容易受到拜占庭攻击的影响,即恶意客户端可能会破坏全局模型的完整性。此外,现有的部分防御方法存在较大的计算开销。针对上述问题,提出一种自适应防御机制FedAud,该机制旨在减小服务端的计算开销,同时确保FL系统对拜占庭攻击的鲁棒性。FedAud结合异常检测模块和信誉机制,并基于历史模型更新动态调整防御策略。使用MNIST和CIFAR-10数据集在不同的攻击场景和防御方法下进行评估的实验结果表明,FedAud能有效降低防御方法的执行频率,从而减轻服务器的计算负担,并提高FL的效率,特别是在防御方法计算开销大或训练周期较长的情况下。此外,FedAud能保持模型的准确性,并在某些情况下提升模型的性能,验证了它在实际FL部署中的有效性。 展开更多
关键词 联邦学习 拜占庭攻击 异常检测 计算开销 通信效率
在线阅读 下载PDF
基于凝聚式层次聚类的微调筛选过采样方法
15
作者 谷铮 陈学斌 +1 位作者 张宏扬 李雨欣 《计算机应用》 北大核心 2025年第7期2138-2144,共7页
针对不平衡数据集分类效果差的问题,提出一种基于凝聚式层次聚类(AHC)的微调筛选过采样方法,该方法可适用于不平衡数据的多分类情况。首先,在不平衡数据集的聚类过程中应用AHC算法,分别聚类多数类与少数类,从而在考虑类别间关系的同时... 针对不平衡数据集分类效果差的问题,提出一种基于凝聚式层次聚类(AHC)的微调筛选过采样方法,该方法可适用于不平衡数据的多分类情况。首先,在不平衡数据集的聚类过程中应用AHC算法,分别聚类多数类与少数类,从而在考虑类别间关系的同时有效避免类重叠问题;其次,为了平衡数据集并保留原始数据的特征,设计一种微调过采样算法;再次,为了提升生成样本的分类准确率,提出一种基于倾向评分匹配的标签倾向评估与筛选方法;最后,通过实验对所提出的方法进行验证,并将该方法与MDO(Mahalanobis Distance-based Over-sampling technique)、AND-SMOTE(Automatic Neighborhood size Determination method for Synthetic Minority Over-sampling TEchnique)和K-means SMOTE这3种方法进行比较。实验结果表明,在Abalone、Contraceptive和Yeast等6个不同的数据集上,所提方法展现出了良好的性能,验证了它的有效性。 展开更多
关键词 不平衡数据 多分类 过采样 凝聚式层次聚类 标签倾向评估
在线阅读 下载PDF
融合语义的个性化差分隐私轨迹发布方案
16
作者 张牙 刘凤春 +2 位作者 杨光辉 张春英 任静 《信息安全研究》 北大核心 2025年第7期670-679,共10页
轨迹数据库中包含大量用户的信息,直接将其发布可能会导致个人敏感信息的泄露.用户的位置语义信息中包含大量日常活动和访问偏好信息,现有个性化差分隐私轨迹发布方案对于位置点隐私级别的判定未考虑位置点间的语义信息,仍然存在隐私性... 轨迹数据库中包含大量用户的信息,直接将其发布可能会导致个人敏感信息的泄露.用户的位置语义信息中包含大量日常活动和访问偏好信息,现有个性化差分隐私轨迹发布方案对于位置点隐私级别的判定未考虑位置点间的语义信息,仍然存在隐私性和数据可用性之间的不平衡问题.为解决上述问题,提出一种融合语义的个性化差分隐私轨迹发布方案(PRTDP),根据用户自身轨迹的移动特性进行动态隐私级别判定.首先,提出敏感位置点判定算法.利用DBSCAN聚类算法得到用户敏感位置点.接着,提出一种个性化隐私级别划分算法.基于位置点间的语义信息构建敏感位置点关系有向图模型,设计改进的PageRank算法确定位置点的隐私级别,将相应隐私级别的拉普拉斯噪声加入轨迹数据中并发布.PRTDP方案能够有效地保护用户的敏感信息,并提高轨迹数据的可用性,实验证明该方案在隐私保护程度、可用性和时间效率3个方面优于现有方案NFRP算法和FPT算法. 展开更多
关键词 个性化差分隐私 轨迹隐私保护 PAGERANK算法 轨迹数据发布 隐私预算
在线阅读 下载PDF
MinRS:一种兼顾模型可用性与模型隐私性的防御方法
17
作者 任志强 陈学斌 张宏扬 《计算机工程与科学》 北大核心 2025年第11期1974-1983,共10页
联邦学习是一种解决机器学习中数据共享和隐私保护问题的技术。然而,联邦学习系统面临着模型可用性和模型隐私性这2方面的安全隐患。此外,目前针对这2类安全隐患的防御方法之间并不能兼容。针对这些问题,从兼顾模型可用性与模型隐私性... 联邦学习是一种解决机器学习中数据共享和隐私保护问题的技术。然而,联邦学习系统面临着模型可用性和模型隐私性这2方面的安全隐患。此外,目前针对这2类安全隐患的防御方法之间并不能兼容。针对这些问题,从兼顾模型可用性与模型隐私性的角度出发,提出了一种名为MinRS的防御方法,该方法由安全访问方案和选择算法组成,能在不影响模型隐私性的前提下防御恶意模型攻击,实现安全的模型聚合。实验结果表明,MinRS在保护模型隐私性的前提下,成功防御了3种不同攻击策略生成的恶意模型,并且几乎没有对模型的性能造成负面影响。 展开更多
关键词 联邦学习 恶意模型 模型可用性 模型隐私性 防御方法
在线阅读 下载PDF
基于特征融合的双分支恶意代码同源性分析模型
18
作者 刘凤春 张志枫 +2 位作者 薛涛 杨光辉 魏群 《信息安全研究》 北大核心 2025年第7期594-602,共9页
在恶意代码同源性分析中,由于加密、混淆和加壳等技术产生大量恶意代码变种,导致深度学习模型对恶意代码特征提取能力不足的问题.为此,提出一种多分支卷积和Transformer构建的双分支恶意代码同源性分析模型MCAT-Net(multi-branch convol... 在恶意代码同源性分析中,由于加密、混淆和加壳等技术产生大量恶意代码变种,导致深度学习模型对恶意代码特征提取能力不足的问题.为此,提出一种多分支卷积和Transformer构建的双分支恶意代码同源性分析模型MCAT-Net(multi-branch convolution and Transformer-Net).首先,构建MCAT-Net双分支网络,一个分支是多分支卷积MBC(multi-branch convolution)模块,以MBC模块构建CNN分支,同时引入混合注意力机制,使网络在兼顾局部特征的同时更能关注核心特征;另一个分支是以Vi T为主干的Transformer模块,提取恶意代码图像的全局特征信息并提出下采样模块,在精细地保留全局特征的同时使Transformer与CNN的特征图在空间尺度对齐;其次,以级联的策略融合CNN分支的局部特征和Transformer分支的全局特征,解决网络只关注单一特征问题;最后,使用Softmax分类器对恶意代码家族进行同源性分析.实验结果表明,基于特征融合的双分支模型的分类准确率达到99.24%,相比单支CNN和单支Transformer模型,准确率分别提高0.11%和0.65%. 展开更多
关键词 双分支 特征融合 多分支卷积 注意力机制 下采样
在线阅读 下载PDF
基于密度峰值的混合型数据聚类算法设计 被引量:6
19
作者 李晔 陈奕延 张淑芬 《计算机应用》 CSCD 北大核心 2018年第2期483-490,496,共9页
针对k-prototypes算法无法自动识别簇数以及无法发现任意形状的簇的问题,提出一种针对混合型数据的新方法:寻找密度峰值的聚类算法。首先,把CFSFDP(Clustering by Fast Search and Find of Density Peaks)聚类算法扩展到混合型数据集,... 针对k-prototypes算法无法自动识别簇数以及无法发现任意形状的簇的问题,提出一种针对混合型数据的新方法:寻找密度峰值的聚类算法。首先,把CFSFDP(Clustering by Fast Search and Find of Density Peaks)聚类算法扩展到混合型数据集,定义混合型数据对象之间的距离后利用CFSFDP算法确定出簇中心,这样也就自动确定了簇的个数,然后其余的点按照密度从大到小的顺序进行分配。其次,研究了该算法中阈值(截断距离)及权值的选取问题:对于密度公式中的阈值,通过计算数据场中的势熵来自动提取;对于距离公式中的权值,利用度量数值型数据集和分类型数据集聚类趋势的统计量来定义。最后通过在三个实际混合型数据集上的测试发现:与传统k-prototypes算法相比,寻找密度峰值的聚类算法能有效提高聚类的精度。 展开更多
关键词 聚类分析 混合型数据 数据场 聚类趋势 密度峰值
在线阅读 下载PDF
面向区块链的在线联邦增量学习算法 被引量:8
20
作者 罗长银 陈学斌 +1 位作者 马春地 王君宇 《计算机应用》 CSCD 北大核心 2021年第2期363-371,共9页
针对传统数据处理技术存在模型过时、泛化能力减弱以及并未考虑多源数据安全性的问题,提出一种面向区块链的在线联邦增量学习算法。该算法将集成学习与增量学习应用到联邦学习的框架下,使用stacking集成算法来整合多方本地模型,且将模... 针对传统数据处理技术存在模型过时、泛化能力减弱以及并未考虑多源数据安全性的问题,提出一种面向区块链的在线联邦增量学习算法。该算法将集成学习与增量学习应用到联邦学习的框架下,使用stacking集成算法来整合多方本地模型,且将模型训练阶段的模型参数上传至区块链并快速同步,使得在建立的全局模型准确率仅下降1%的情况下,模型在训练阶段与存储阶段的安全性均得到了提升,降低了数据存储与模型参数传输的成本,同时也降低了因模型梯度更新造成数据泄漏的风险。实验结果表明,在公开的数据集上进行训练,各时间段内模型的准确度均在91.5%以上,且方差均低于10^-5;与传统整合数据训练模型相比,该模型在准确率上略有下降,但能够在保证模型准确率的同时提高数据与模型的安全性。 展开更多
关键词 区块链 集成学习 联邦学习 增量学习
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部