期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于可信执行环境的安全推理研究进展 被引量:1
1
作者 孙钰 熊高剑 +1 位作者 刘潇 李燕 《信息网络安全》 CSCD 北大核心 2024年第12期1799-1818,共20页
近年来,以深度神经网络为代表的机器学习技术在自动驾驶、智能家居和语音助手等领域获得了广泛应用。在上述高实时要求场景下,多数服务商将模型部署在边缘设备以规避通信带来的网络时延与通信开销。然而,边缘设备不受服务商控制,所部署... 近年来,以深度神经网络为代表的机器学习技术在自动驾驶、智能家居和语音助手等领域获得了广泛应用。在上述高实时要求场景下,多数服务商将模型部署在边缘设备以规避通信带来的网络时延与通信开销。然而,边缘设备不受服务商控制,所部署模型易遭受模型窃取、错误注入和成员推理等攻击,进而导致高价值模型失窃、推理结果操纵及私密数据泄露等严重后果,使服务商市场竞争力受到致命打击。为解决上述问题,众多学者致力于研究基于可信执行环境(TEE)的安全推理,在保证模型可用性条件下保护模型的参数机密性与推理完整性。文章首先介绍相关背景知识,给出安全推理的定义,并归纳其安全模型;然后对现有TEE安全推理的模型机密性保护方案与推理完整性保护方案进行了分类介绍和比较分析;最后展望了TEE安全推理的未来研究方向。 展开更多
关键词 安全推理 可信执行环境 模型机密性 推理完整性 边缘部署
在线阅读 下载PDF
联邦学习安全威胁综述 被引量:9
2
作者 王坤庆 刘婧 +4 位作者 李晨 赵语杭 吕浩然 李鹏 刘炳莹 《信息安全研究》 2022年第3期223-234,共12页
当前,联邦学习已被认为是解决数据孤岛和隐私保护的有效解决方案,其自身安全性和隐私保护问题一直备受工业界和学术界关注.现有的联邦学习系统已被证明存在诸多漏洞,这些漏洞可被联邦学习系统内部或外部的攻击者所利用,破坏联邦学习数... 当前,联邦学习已被认为是解决数据孤岛和隐私保护的有效解决方案,其自身安全性和隐私保护问题一直备受工业界和学术界关注.现有的联邦学习系统已被证明存在诸多漏洞,这些漏洞可被联邦学习系统内部或外部的攻击者所利用,破坏联邦学习数据的安全性.首先对特定场景下联邦学习的概念、分类和威胁模型进行介绍;其次介绍联邦学习的机密性、完整性、可用性(CIA)模型;然后对破坏联邦学习CIA模型的攻击方法进行分类研究;最后对CIA模型当前面临的问题挑战和未来研究方向进行分析和总结. 展开更多
关键词 联邦学习 隐私泄露 机密性、完整性、可用性模型 成员攻击 生成对抗网络攻击
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部