期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于暗知识保护的模型窃取防御技术DKP 被引量:1
1
作者 张郅 李欣 +1 位作者 叶乃夫 胡凯茜 《计算机应用》 CSCD 北大核心 2024年第7期2080-2086,共7页
在黑盒场景下,使用模型功能窃取方法生成盗版模型已经对云端模型的安全性和知识产权保护构成严重威胁。针对扰动和软化标签(变温)等现有的模型窃取防御技术可能导致模型输出中置信度最大值的类别发生改变,进而影响原始任务中模型性能的... 在黑盒场景下,使用模型功能窃取方法生成盗版模型已经对云端模型的安全性和知识产权保护构成严重威胁。针对扰动和软化标签(变温)等现有的模型窃取防御技术可能导致模型输出中置信度最大值的类别发生改变,进而影响原始任务中模型性能的问题,提出一种基于暗知识保护的模型功能窃取防御方法,称为DKP(defending against model stealing attacks based on Dark Knowledge Protection)。首先,利用待保护的云端模型对测试样本进行处理,以获得样本的初始置信度分布向量;然后,在模型输出层之后添加暗知识保护层,通过分区变温调节softmax机制对初始置信度分布向量进行扰动处理;最后,得到经过防御的置信度分布向量,从而降低模型信息泄露的风险。使用所提方法在4个公开数据集上取得了显著的防御效果,尤其在博客数据集上使盗版模型的准确率降低了17.4个百分点,相比之下对后验概率进行噪声扰动的方法仅能降低约2个百分点。实验结果表明,所提方法解决了现有扰动、软化标签等主动防御方法存在的问题,在不影响测试样本分类结果的前提下,通过扰动云端模型输出的类别概率分布特征,成功降低了盗版模型的准确率,实现了对云端模型机密性的可靠保障。 展开更多
关键词 深度学习 黑盒场景 云端模型 模型功能窃取 模型窃取防御 暗知识保护
在线阅读 下载PDF
基于FGSM样本扩充的模型窃取攻击方法研究 被引量:2
2
作者 陈传涛 潘丽敏 +1 位作者 罗森林 王子文 《信息安全研究》 2021年第11期1023-1030,共8页
针对模型窃取攻击方法存在适用范围窄、依赖大量训练数据且窃取的替代模型预测准确率较低等问题,提出了一种基于快速梯度符号方法(FGSM)样本扩充的模型窃取攻击方法.该方法使用少量样本作为种子集,通过FGSM不断扩充样本;根据待攻击模型... 针对模型窃取攻击方法存在适用范围窄、依赖大量训练数据且窃取的替代模型预测准确率较低等问题,提出了一种基于快速梯度符号方法(FGSM)样本扩充的模型窃取攻击方法.该方法使用少量样本作为种子集,通过FGSM不断扩充样本;根据待攻击模型的决策纠正替代模型边界,提高替代模型与待攻击模型的相近程度;结合超参数交叉验证,利用不断增加的训练集训练替代模型,最终实现模型窃取攻击.在Drebin数据集上的实验结果表明,替代模型的一致率和准确率随着迭代轮次的增加而逐步提高,利用该方法训练的替代模型的检测准确率优于所对比的模型窃取方法. 展开更多
关键词 FGSM 样本扩充 模型窃取 超参数选取 交叉验证
在线阅读 下载PDF
基于图像增强的模型防窃取研究
3
作者 武于新 陈伟 +2 位作者 杨文馨 张怡婷 范渊 《信息安全研究》 北大核心 2025年第3期214-220,共7页
卷积神经网络(convolutional neural network,CNN)模型被广泛应用于图像分类任务,并取得较好的成果,但是这些模型也会成为被窃取的对象.针对现有防窃取措施中高度依赖算法的检测准确性和事后知识产权验证的问题,提出了一种新型的避免图... 卷积神经网络(convolutional neural network,CNN)模型被广泛应用于图像分类任务,并取得较好的成果,但是这些模型也会成为被窃取的对象.针对现有防窃取措施中高度依赖算法的检测准确性和事后知识产权验证的问题,提出了一种新型的避免图像分类任务中的CNN模型被窃取的方法,利用图像增强技术提高私有模型的泛化能力.然后使用宽松的可疑行为检测规则检测查询行为,对于可疑的查询图像使用增强图像技术进行处理,再将处理后的图像输入到增强模型中进行预测.最后输出模型的预测类别置信度组成的向量,实现了输入输出不对等,这个过程中将阻止可疑用户获得其输入图像对应的模型预测信息,以达到模型防窃取的目的.使用3种常见的图像数据集和4种卷积神经网络结构进行实验,发现该方法可以实现模型防窃取的目的,并且保证私有模型可以正常完成其分类任务. 展开更多
关键词 人工智能 卷积神经网络 模型窃取 模型窃取 图像增强
在线阅读 下载PDF
针对深度神经网络模型指纹检测的逃避算法 被引量:1
4
作者 钱亚冠 何念念 +5 位作者 郭艳凯 王滨 李晖 顾钊铨 张旭鸿 吴春明 《计算机研究与发展》 EI CSCD 北大核心 2021年第5期1106-1117,共12页
随着深度神经网络在不同领域的成功应用,模型的知识产权保护成为了一个备受关注的问题.由于深度神经网络的训练需要大量计算资源、人力成本和时间成本,攻击者通过窃取目标模型参数,可低成本地构建本地替代模型.为保护模型所有者的知识产... 随着深度神经网络在不同领域的成功应用,模型的知识产权保护成为了一个备受关注的问题.由于深度神经网络的训练需要大量计算资源、人力成本和时间成本,攻击者通过窃取目标模型参数,可低成本地构建本地替代模型.为保护模型所有者的知识产权,最近提出的模型指纹比对方法,利用模型决策边界附近的指纹样本及其指纹查验模型是否被窃取,具有不影响模型自身性能的优点.针对这类基于模型指纹的保护策略,提出了一种逃避算法,可以成功绕开这类保护策略,揭示了模型指纹保护的脆弱性.该逃避算法的核心是设计了一个指纹样本检测器——Fingerprint-GAN.利用生成对抗网络(generative adversarial network,GAN)原理,学习正常样本在隐空间的特征表示及其分布,根据指纹样本与正常样本在隐空间中特征表示的差异性,检测到指纹样本,并向目标模型所有者返回有别于预测的标签,使模型所有者的指纹比对方法失效.最后通过CIFAR-10,CIFAR-100数据集评估了逃避算法的性能,实验结果表明:算法对指纹样本的检测率分别可达95%和94%,而模型所有者的指纹比对成功率最高仅为19%,证明了模型指纹比对保护方法的不可靠性. 展开更多
关键词 知识产权保护 模型窃取 模型指纹 生成对抗网络 逃避算法
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部