期刊文献+
共找到35篇文章
< 1 2 >
每页显示 20 50 100
云存储中支持数据去重的群组数据持有性证明 被引量:11
1
作者 王宏远 祝烈煌 李龙一佳 《软件学报》 EI CSCD 北大核心 2016年第6期1417-1431,共15页
数据持有性证明(provable data possession,简称PDP)和数据可恢复性证明(proofs of retrievability,简称POR)是客户端用来验证存储在云端服务器上数据完整性的主要技术.近几年,它在学术界和工业界的应用广泛,很多PDP和POR方案相继出现.... 数据持有性证明(provable data possession,简称PDP)和数据可恢复性证明(proofs of retrievability,简称POR)是客户端用来验证存储在云端服务器上数据完整性的主要技术.近几年,它在学术界和工业界的应用广泛,很多PDP和POR方案相继出现.但是由于不同群组的特殊性和独特要求,使得群组PDP/POR方案多样化,并且群组应用中的许多重要功能(例如数据去重)没有被实现.如何构造高效及满足群组特定功能和安全需求的PDP/POR方案,已经引起了人们的广泛关注.给出了一种支持数据去重的群组PDP方案(GPDP),基于矩阵计算和伪随机函数,GPDP可以在支持数据去重的基础上,高效地完成数据持有性证明,并且可以在群组中抵抗恶意方选择成员攻击.在标准模型下证明了GPDP的安全性,并且在百度云平台上实现了GPDP的原型系统.为了评估方案的性能,使用了10GB的数据量进行实验和分析,结果表明:GPDP方案在达到群组中数据去重的目标的基础上,可以高效地保证抵抗选择攻击和数据持有性,即:预处理效率高于私有验证方案,而验证效率高于公开验证方案(与私有验证效率几乎相同).另外,与其他群组PDP/POR方案相比,GPDP方案将额外存储代价和通信代价都降到了最低. 展开更多
关键词 群组数据持有性证明 选择攻击 数据去重 云存储 云计算
在线阅读 下载PDF
CDED:支持加密数据去重的云数据审计方案 被引量:5
2
作者 金瑜 龚鑫 +1 位作者 何亨 李鹏 《小型微型计算机系统》 CSCD 北大核心 2018年第7期1498-1503,共6页
云存储中云数据的安全和效率问题正广受关注.解决云数据安全问题的方法一般是审计,而解决云数据效率问题(即重复问题)的方法是去重.为了避免暴露隐私,数据一般以密文的形式存储在云服务器上,所以,我们应该考虑加密数据的去重和审计.为... 云存储中云数据的安全和效率问题正广受关注.解决云数据安全问题的方法一般是审计,而解决云数据效率问题(即重复问题)的方法是去重.为了避免暴露隐私,数据一般以密文的形式存储在云服务器上,所以,我们应该考虑加密数据的去重和审计.为了保证云数据存储的既安全又高效,我们需要支持加密数据去重的审计方案.然而目前同时考虑加密数据去重和数据完整性验证的方案存在缺点,如(1)用户端存储和计算开销大;(2)需要用户一直在线参与审计过程,并且用户和云服务器计算量大.针对这些问题本文提出了CDED,一种新的同时支持加密数据去重和数据完整性验证方案:(1)加密数据去重时,采用了代理重加密的方法来保证数据安全,这样用户端不需要保存大量加密密钥,且省去了上传重复数据之前加密数据的计算量;(2)在数据完整性验证中,采用了新的公开审计和代理重签名方法,保证用户不用一直在线参与审计过程,也减少了用户端和云服务器的计算量.通过理论和实验分析,CDED克服了现有方案的缺点.不需要用户一直在线,并且用户端和服务器端的计算量都减少了. 展开更多
关键词 云存储 加密数据去重 公开审计 代理签名
在线阅读 下载PDF
基于大数据挖掘的多维数据去重聚类算法分析 被引量:12
3
作者 宋鹏 《现代电子技术》 北大核心 2019年第23期150-153,共4页
数据产生的渠道越来越多,速度越来越快,大量的数据为数据分析和处理带来了较大的难度,云平台中的数据种类和规模也在不断扩大,超大的数据规模给数据的存储、管理、分析等带来了前所未有的挑战。数据量剧增会导致数据的可靠性不足,如何... 数据产生的渠道越来越多,速度越来越快,大量的数据为数据分析和处理带来了较大的难度,云平台中的数据种类和规模也在不断扩大,超大的数据规模给数据的存储、管理、分析等带来了前所未有的挑战。数据量剧增会导致数据的可靠性不足,如何有效地处理数据之间的关系,降低冗余数据,建立多维数据去重聚类模型是业界共同努力的方向。文中最先介绍了在大数据挖掘下的多维聚类算法,通过分析大数据内部之间的关系,建立一种适合大数据处理的多维数据去重聚类算法分析模型,对该算法进行改进和实验分析,得到该算法在采样时所存在的复杂度较低,数据分析的结果准确,有利于实现数据的分析和处理,减少数据的冗余,增加数据分析的效率,具有良好的判定效果。 展开更多
关键词 数据挖掘 多维数据去重 聚类算法 数据分析 模型建立 减少冗余
在线阅读 下载PDF
一种支持数据所有权动态管理的数据去重方案 被引量:3
4
作者 郎为民 马卫国 +1 位作者 张寅 姚晋芳 《信息网络安全》 CSCD 北大核心 2020年第6期1-9,共9页
将数据去重引入大数据中心云存储系统,能够提高磁盘空间的利用效率,节约用户带宽消耗,但会导致数据机密性、完整性和隐私性等方面的安全问题。如何实现对数据的安全去重已成为云存储安全领域的研究热点。文章以大数据中心半可信云计算... 将数据去重引入大数据中心云存储系统,能够提高磁盘空间的利用效率,节约用户带宽消耗,但会导致数据机密性、完整性和隐私性等方面的安全问题。如何实现对数据的安全去重已成为云存储安全领域的研究热点。文章以大数据中心半可信云计算环境为背景,设计了一种支持数据所有权动态管理和隐私保护的加密数据去重方案。该方案通过引入用户级密钥管理和更新机制实现了细粒度的访问控制。同时,文章搭建了方案性能仿真评估的实验环境,通过仿真结果分析了所提方案在存储、通信和计算方面的开销,证明了所提方案在总体效率和安全性方面具有明显优势。 展开更多
关键词 数据去重 数据所有权 动态管理 数据中心 云存储
在线阅读 下载PDF
基于数据路由的分布式备份数据去重系统 被引量:2
5
作者 姚敏 尹建伟 +1 位作者 唐彦 罗智凌 《计算机工程》 CAS CSCD 北大核心 2017年第2期85-91,共7页
传统数据去重备份系统在大数据应用场景下存在备份存储空间过大和数据吞吐量不足等缺点。为此,基于数据路由设计一种分布式备份数据去重系统。该系统以数据片为去重粒度,具有数据路由和数据预取2个功能。数据路由使用布隆过滤器对需要... 传统数据去重备份系统在大数据应用场景下存在备份存储空间过大和数据吞吐量不足等缺点。为此,基于数据路由设计一种分布式备份数据去重系统。该系统以数据片为去重粒度,具有数据路由和数据预取2个功能。数据路由使用布隆过滤器对需要处理的数据片进行路由查询,数据预取则使用平均取样和基于Jaccard距离的近邻取样方案。通过数据路由分配数据片到相应处理节点进行处理,平均取样得到的数据片哈希码为数据路由提供路由信息,近邻取样得到的数据片哈希码用于系统首次数据去重。实验结果表明,该系统在保证数据去重率的同时,相对全节点查询和定点路由的数据片路由方式数据吞吐量提升明显。 展开更多
关键词 数据去重 数据路由 数据预取 布隆过滤器 Jaccard距离
在线阅读 下载PDF
一种批处理块级数据去重方法 被引量:5
6
作者 杨天明 吴海涛 《计算机应用与软件》 CSCD 2016年第5期44-46,60,共4页
数据去重能消除备份中的冗余数据,节省存储资源和网络带宽,因而成为当前数据存储领域的研究热点。针对常用的块级数据去重技术指纹查询开销高、系统吞吐率低等问题,提出一种批处理块级数据去重方法,通过内存缓冲区对指纹进行排序,实现... 数据去重能消除备份中的冗余数据,节省存储资源和网络带宽,因而成为当前数据存储领域的研究热点。针对常用的块级数据去重技术指纹查询开销高、系统吞吐率低等问题,提出一种批处理块级数据去重方法,通过内存缓冲区对指纹进行排序,实现磁盘索引的顺序查询。同时文件以一种双指针有向无环图的结构存储在系统中,以消除文件读时引起的随机磁盘I/O开销。实验结果表明,该方法有效克服了指纹查询的磁盘I/O瓶颈,提高了数据去重时的系统读写性能。 展开更多
关键词 备份 数据去重 指纹查询 批处理
在线阅读 下载PDF
一种基于秘密共享算法的安全数据去重方案 被引量:4
7
作者 郎为民 王雪丽 +1 位作者 张汉 裴云祥 《信息网络安全》 CSCD 北大核心 2020年第11期43-50,共8页
作为优化存储空间、改善网络带宽、降低总体开销的关键技术之一,数据去重已成为云服务提供商(CSP)外包数据管理不可或缺的一部分,但也面临着数据机密性、完整性和隐私性等诸多安全问题。文章提出一种集容错能力、机密性和高效密钥管理... 作为优化存储空间、改善网络带宽、降低总体开销的关键技术之一,数据去重已成为云服务提供商(CSP)外包数据管理不可或缺的一部分,但也面临着数据机密性、完整性和隐私性等诸多安全问题。文章提出一种集容错能力、机密性和高效密钥管理于一体的安全数据去重方案。该方案采用基于置换有序二进制(POB)编码系统的秘密共享算法将数据块分解为多个随机份额,并通过所有权证明(PoW)进一步确保数据安全性。同时,方案采用基于中国剩余定理(CRT)的秘密共享算法将密钥分为多个随机块,并发送给相应的密钥管理服务器,从而将密钥开销降至最低。实验结果证明,文章方案在功能和效率方面明显优于其他方案,且能有效对抗两类攻击者(即不诚实服务器和外部攻击者)和两类攻击方式(即重复伪造攻击和擦除攻击)。 展开更多
关键词 数据去重 秘密共享 所有权证明 置换有序二进制 中国剩余定理
在线阅读 下载PDF
改进的高效云存储数据去重方案 被引量:2
8
作者 柳毅 陈添笑 《计算机应用研究》 CSCD 北大核心 2020年第10期3107-3111,共5页
针对Chen等人提出的云存储数据去重方案BL-MLE的计算开销过大的问题,对其方案进行了改进,提出了一种更高效的数据去重方案。首先对BL-MLE方案进行了分析,指出其在计算效率等方面的不足;随后通过使用hash函数和标签决策树对BL-MLE的块标... 针对Chen等人提出的云存储数据去重方案BL-MLE的计算开销过大的问题,对其方案进行了改进,提出了一种更高效的数据去重方案。首先对BL-MLE方案进行了分析,指出其在计算效率等方面的不足;随后通过使用hash函数和标签决策树对BL-MLE的块标签生成过程以及块标签比较过程进行改进;最后,通过实验仿真了改进的方案。结果表明,改进后的方案在块标签比较所需次数更少,且块标签生成上时间开销更低,能更好地适应当前的云存储环境。 展开更多
关键词 云存储 数据去重 消息锁加密 决策树
在线阅读 下载PDF
云存储中基于相似性的客户-服务端双端数据去重方法 被引量:2
9
作者 燕彩蓉 钱凯 《东华大学学报(自然科学版)》 CAS CSCD 北大核心 2018年第1期115-122,共8页
数据去重是云存储系统提高存储率的主要手段之一,为解决查重过程中因数据量大而导致的索引I/O瓶颈和数据块指纹冲突问题,从而提高查重效率和去重准确度,提出了一种快速且安全的数据去重方法。该方法采用客户-服务器端双重检测框架,基于... 数据去重是云存储系统提高存储率的主要手段之一,为解决查重过程中因数据量大而导致的索引I/O瓶颈和数据块指纹冲突问题,从而提高查重效率和去重准确度,提出了一种快速且安全的数据去重方法。该方法采用客户-服务器端双重检测框架,基于滑动窗口技术和Rabin指纹算法并根据文件内容确定数据块边界,摒弃传统的MD5和SHA1算法,应用第3代安全哈希函数SHA3来计算数据块的指纹。提出两级索引策略,基于数据相似性原理来加快索引查找和比对速度。试验结果表明,客户-服务器双重检测框架能有效提高系统查重效率,基于SHA3的数据块指纹计算更加精确,能有效提高去重准确度。 展开更多
关键词 云存储 数据去重 滑动窗口技术 数据指纹
在线阅读 下载PDF
面向数据去重的基于二次哈希的收敛加密策略 被引量:7
10
作者 周玉坤 冯丹 +1 位作者 夏文 付忞 《计算机工程与科学》 CSCD 北大核心 2016年第9期1755-1762,共8页
在云存储和备份系统等领域,数据去重被广泛地用来消除冗余数据及节约传输带宽,数据去重的安全问题受到越来越多的关注。现有收敛加密(CE)存在两大挑战:(1)由于密钥确定化导致的线下暴力破解问题;(2)对重复数据的无用加密操作使... 在云存储和备份系统等领域,数据去重被广泛地用来消除冗余数据及节约传输带宽,数据去重的安全问题受到越来越多的关注。现有收敛加密(CE)存在两大挑战:(1)由于密钥确定化导致的线下暴力破解问题;(2)对重复数据的无用加密操作使得计算开销随着数据负载去重率的提高而增加。针对上述两个问题,提出了基于二次哈希的收敛加密策略(TCE)。具体而言,TCE首先计算数据块的哈希生成密钥,密钥经过可信第三方添加秘密信息后增加随机化程度;然后针对该哈希值再次哈希得到数据块指纹。TCE增加了线下暴力破解的难度,消除了对重复数据的加密操作。实验测试结果表明,TCE比CE的备份窗口减少了30%~50%。 展开更多
关键词 数据去重 收敛加密 暴力破解攻击 备份窗口
在线阅读 下载PDF
基于双层加密和密钥共享的云数据去重方法 被引量:28
11
作者 高文静 咸鹤群 程润辉 《计算机学报》 EI CAS CSCD 北大核心 2021年第11期2203-2215,共13页
数据去重技术在云存储系统中的广泛应用,可以有效地节省网络通信带宽,提高云服务器的存储效率.随着信息安全问题的日益凸显,用户对于数据隐私的重视程度越来越高.为保护数据隐私,用户普遍将数据加密后上传至云服务器.相同的数据经过不... 数据去重技术在云存储系统中的广泛应用,可以有效地节省网络通信带宽,提高云服务器的存储效率.随着信息安全问题的日益凸显,用户对于数据隐私的重视程度越来越高.为保护数据隐私,用户普遍将数据加密后上传至云服务器.相同的数据经过不同用户加密后得到不同的密文,使得云服务器难以进行数据重复性检测.如何在保护数据隐私的前提下,实现云存储中加密数据的去重,成为研究的热点问题.现有方案大多借助可信第三方实现云数据安全去重,但可信第三方在现实应用中极难部署,且易成为系统瓶颈.提出一种基于双层加密和密钥共享的云数据去重方案,无需可信第三方参与,实现云存储中加密数据的安全去重.通过划分数据流行度,对隐私程度较高的非流行数据采用双层加密机制进行保护.内层为收敛加密,外层为对称加密.借助门限秘密共享机制,将外层加密使用的加密密钥保存到多个密钥管理服务器,实现不同用户间的密钥共享.对隐私程度不高的流行数据,采用简单高效的收敛加密.安全性分析与性能对比体现本文的方案具有较高的安全性与执行效率.通过仿真实验,验证了方案的可行性和高效性. 展开更多
关键词 加密数据去重 双层加密 密钥共享 数据流行度 云存储安全
在线阅读 下载PDF
支持多维度数据去重的交互式可视分析方法 被引量:17
12
作者 朱海洋 钱中昊 +4 位作者 严凡 毛科添 应昊键 王杰 陈为 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2022年第6期841-851,共11页
多维度数据中的重复数据会严重影响数据的挖掘、分析与应用.针对传统的数据去重方法的成本、效率和便捷性无法满足大数据分析需求的问题,提出一种数据去重的交互式可视分析方法.该方法将多维度数据通过表示学习提取高维特征向量;使用降... 多维度数据中的重复数据会严重影响数据的挖掘、分析与应用.针对传统的数据去重方法的成本、效率和便捷性无法满足大数据分析需求的问题,提出一种数据去重的交互式可视分析方法.该方法将多维度数据通过表示学习提取高维特征向量;使用降维算法将其降至二维散点图;采用无监督聚类算法进行分析;支持用户交互式地调整算法模型及参数,逐步筛选确认重复数据并执行去重操作.对某大型供应链集成服务集团公司数据集进行分析、实验和用户调研,结果表明该方法能有效地处理主流数据清洗软件Trifacta Wrangler和OpenRefine难以发现的复杂数据重复问题,并且效率是它们的2倍以上,在学习难度和使用便捷性等方面也具有明显优势. 展开更多
关键词 数据治理 数据清洗 数据去重 多维度数据 可视化分析方法
在线阅读 下载PDF
基于RCE的云存储动态所有权管理数据去重方案 被引量:9
13
作者 吴波 柳毅 《计算机工程与应用》 CSCD 北大核心 2020年第5期101-108,共8页
数据去重技术在云存储中应用广泛,通过存储数据的一个副本节省存储空间、降低通信开销。为了实现安全的数据去重复,收敛加密以及其很多变体相应被提出,然而,很多方案没有考虑所有权改变和所有权证明(PoW)问题。提出一种安全高效的动态... 数据去重技术在云存储中应用广泛,通过存储数据的一个副本节省存储空间、降低通信开销。为了实现安全的数据去重复,收敛加密以及其很多变体相应被提出,然而,很多方案没有考虑所有权改变和所有权证明(PoW)问题。提出一种安全高效的动态所有权管理去重方案,通过更新组密钥对密钥密文进行重加密实现云用户所有权撤销后的管理问题,阻止撤销所有权的用户正确解密密文,构造了基于布隆过滤器的所有权证明,提出延迟更新策略进一步降低计算开销。分析和实验表明,该方案具有较小的开销,在动态所有权管理中是有效的。 展开更多
关键词 云存储 数据去重 动态所有权管理 访问控制 延迟更新
在线阅读 下载PDF
基于授权记录的云存储加密数据去重方法 被引量:5
14
作者 张艺 刘红燕 +1 位作者 咸鹤群 田呈亮 《信息网络安全》 CSCD 北大核心 2020年第3期75-82,共8页
数据去重技术用于删除云存储系统中的冗余数据,可以提高存储效率,节约网络带宽。用户为了保护数据隐私,通常将数据加密后上传至云服务器,这给数据去重操作带来了较大的困难。如何在保证数据隐私的前提下,实现安全高效的数据去重是云计... 数据去重技术用于删除云存储系统中的冗余数据,可以提高存储效率,节约网络带宽。用户为了保护数据隐私,通常将数据加密后上传至云服务器,这给数据去重操作带来了较大的困难。如何在保证数据隐私的前提下,实现安全高效的数据去重是云计算安全领域研究的热点问题。因此,文章提出了一种基于授权记录的云存储加密数据去重方法,该方法基于双线性映射构造数据标签,设计了一种授权记录存储结构。根据数据流行程度,采用不同的加密方式,利用代理重加密进行密钥转换,无须实时在线的第三方参与,确保标签不泄露任何明文信息,实现数据的所有权验证,可以确保去重数据的安全性。文章分析并证明了所提方案的安全性和正确性,实验结果也说明了方案的可行性和高效性。 展开更多
关键词 授权记录 双线性映射 数据去重 数据流行度 代理加密
在线阅读 下载PDF
支持数据去重的可验证模糊多关键词搜索方案 被引量:4
15
作者 魏国富 葛新瑞 于佳 《密码学报》 CSCD 2019年第5期615-626,共12页
模糊关键词搜索能够在关键词被拼错的情况下,仍然可以使云服务器返回用户感兴趣的文件.然而已有的模糊搜索方案大多都假设云服务器是诚实的.一旦云服务器由于软硬件故障等原因返回给用户错误的结果,这些模糊关键词搜索方案将无法工作.... 模糊关键词搜索能够在关键词被拼错的情况下,仍然可以使云服务器返回用户感兴趣的文件.然而已有的模糊搜索方案大多都假设云服务器是诚实的.一旦云服务器由于软硬件故障等原因返回给用户错误的结果,这些模糊关键词搜索方案将无法工作.另一方面,云服务器上如果存储大量的冗余数据,会浪费云服务器的存储资源和用户的网路带宽.针对以上问题,提出了一个支持数据去重的可验证的模糊多关键词搜索方案.为了保护数据隐私性并实现数据去重,采用收敛加密对文件加密.为了实现模糊关键词搜索以及对搜索结果排序,采用局部敏感哈希和TF-IDF规则建立安全索引.为了验证搜索结果的正确性,采用基于MAC的验证机制.安全性分析和性能分析表明提出的方案是安全、高效的. 展开更多
关键词 云计算 数据去重 模糊搜索 可验证
在线阅读 下载PDF
基于双层加密的云存储数据去重方法 被引量:3
16
作者 高文静 咸鹤群 +2 位作者 田呈亮 李增鹏 贺云龙 《密码学报》 CSCD 2020年第5期698-712,共15页
为了提高云存储效率和节省网络通信带宽,数据去重技术得到了广泛的应用.为保护数据隐私,越来越多的用户将数据加密后上传至云服务器.与此同时,数据加密给去重技术带来了新的挑战,云存储中加密数据去重成为了研究者们关注的热点问题.现... 为了提高云存储效率和节省网络通信带宽,数据去重技术得到了广泛的应用.为保护数据隐私,越来越多的用户将数据加密后上传至云服务器.与此同时,数据加密给去重技术带来了新的挑战,云存储中加密数据去重成为了研究者们关注的热点问题.现有去重方案大多依赖第三方服务器,安全性受到制约,引入额外服务器降低了执行效率.提出一种基于双层加密的云存储数据去重方案,摆脱了第三方服务器的束缚.对用户数据进行流行度划分,采用双层加密的方式保证非流行数据的语义安全.内层为收敛加密,外层为对称加密.当数据发生流行度转变时,云服务器只需去除外层加密,存储数据的收敛加密结果.实现了对非流行数据的去重,进一步提高了去重效率.增加了额外的安全机制,有效的防止非授权用户下载数据.给出了方案的安全性分析,通过性能分析与对比讨论了方案的性能,仿真实验验证了方案的可行性和高效性. 展开更多
关键词 加密数据去重 双层加密 数据流行度
在线阅读 下载PDF
基于IntelSGX的安全数据去重方法 被引量:1
17
作者 张新宇 咸鹤群 +1 位作者 卢倩 田呈亮 《密码学报》 CSCD 2022年第2期341-352,共12页
在云存储服务中,安全的加密数据去重通常需要依赖可信第三方服务器(trusted thirdparty,TTP).为了解决这一问题,提出了一种基于英特尔软件防护扩展(Intel software guard extension,Intel SGX)的安全数据去重方法,利用硬件安全技术协助... 在云存储服务中,安全的加密数据去重通常需要依赖可信第三方服务器(trusted thirdparty,TTP).为了解决这一问题,提出了一种基于英特尔软件防护扩展(Intel software guard extension,Intel SGX)的安全数据去重方法,利用硬件安全技术协助客户端进行密钥管理.将IntelSGX提供的飞地(Enclave)作为可信执行环境,使用远程认证机制构建云服务器与客户端Enclave之间端到端的安全信道,完成敏感信息的传输,保护客户端隐私数据;利用数据密封机制实现隐私数据的安全存储.安全性分析与性能评估表明,相较于以往的方法,本文方法在密钥以及通信等方面具有更高的安全性,在系统开销和平均执行时间等方面也具有一定优势.此外,由于无需使用可信第三方的支持,在现实场景下易于实现,具有一定的应用价值. 展开更多
关键词 云存储 数据去重 英特尔软件防护扩展 飞地
在线阅读 下载PDF
面向云存储的数据流行度去重方案 被引量:1
18
作者 何欣枫 杨琴琴 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2024年第1期187-200,共14页
随着云计算的发展,企业和个人倾向于把数据外包给云存储服务器来缓解本地存储压力,导致云端存储压力成为一个日益突出的问题。为了提高云存储效率,降低通信成本,数据去重技术得到了广泛应用。现有的数据去重技术主要包括基于哈希表的相... 随着云计算的发展,企业和个人倾向于把数据外包给云存储服务器来缓解本地存储压力,导致云端存储压力成为一个日益突出的问题。为了提高云存储效率,降低通信成本,数据去重技术得到了广泛应用。现有的数据去重技术主要包括基于哈希表的相同数据去重和基于布隆过滤器的相似数据去重,但都很少考虑数据流行度的影响。实际应用中,用户外包给云服务器的数据分布是不均匀的,根据访问频率可以划分为流行数据和非流行数据。流行数据访问频繁,在云服务器中会存在大量的副本和相似数据,需要执行高精度的数据去重;而非流行数据访问频率低,云存储服务器中的副本数量和相似数据较少,低精度的去重即可满足要求。针对上述问题,将数据流行度和布隆过滤器相结合,提出一种基于数据流行度的动态布隆过滤器;同时,提出一种基于数据流行度的动态布隆过滤器的数据去重方案,可以根据数据流行度动态调整去重精度。仿真结果表明,该方案在时间消耗、空间消耗和误判率之间取得了良好的平衡。 展开更多
关键词 云计算 云存储 数据去重 数据流行度 布隆过滤器
在线阅读 下载PDF
面向去中心化存储的数据流行度去重模型 被引量:1
19
作者 汪彩梅 闻琪略 +3 位作者 周子健 卢建豪 张琛 吴志泽 《计算机应用研究》 CSCD 北大核心 2024年第5期1544-1553,共10页
数据流行度去重方案中存在检测机构不诚实、数据存储不可靠等问题,提出一种面向去中心化存储的数据流行度去重模型。针对检测机构不诚实,模型结合区块链的不可窜改性与智能合约的不可抵赖性,将智能合约作为检测机构执行数据的重复性检... 数据流行度去重方案中存在检测机构不诚实、数据存储不可靠等问题,提出一种面向去中心化存储的数据流行度去重模型。针对检测机构不诚实,模型结合区块链的不可窜改性与智能合约的不可抵赖性,将智能合约作为检测机构执行数据的重复性检测和流行度检测,保障了检测结果的真实性。针对数据存储不可靠问题,提出一种文件链存储结构。该结构满足数据流行度去重的要求,并通过添加辅助信息的方式,建立分布在不同存储节点中实现物理/逻辑上传的分片之间的逻辑关系,为流行度数据去中心化网络存储提供基础;同时,在数据块信息中添加备份标识,借助备份标识将存储网络划分为两个虚拟存储空间,分别实现数据和备份数据的检测与存储,满足了用户备份需求。安全性分析和性能分析表明,该方案具有可行性,保障了检测结果的真实性,并提高了数据存储的可靠性。 展开更多
关键词 数据去重 数据流行度 去中心化 区块链 存储可靠性
在线阅读 下载PDF
基于确定/概率性文件拥有证明的机密数据安全去重方案 被引量:6
20
作者 陈越 李超零 +2 位作者 兰巨龙 金开春 王仲辉 《通信学报》 EI CSCD 北大核心 2015年第9期1-12,共12页
为解决云存储系统中机密数据去重面临的密文重复性检测与拥有性证明、针对数据机密性的攻击等难题,提出了基于Merkle散列树的MHT-Dedup方案和基于同态MAC的h MAC-Dedup方案。两者均通过对密文文件的拥有证明进行跨用户文件级重复性检测... 为解决云存储系统中机密数据去重面临的密文重复性检测与拥有性证明、针对数据机密性的攻击等难题,提出了基于Merkle散列树的MHT-Dedup方案和基于同态MAC的h MAC-Dedup方案。两者均通过对密文文件的拥有证明进行跨用户文件级重复性检测,并通过检查数据块明文的摘要进行本地数据块级重复性检测,避免了跨用户文件级客户端重复性检测中hash-as-a-proof方法存在的安全缺陷。MHT-Dedup方案通过数据块密文的标签生成的验证二叉树提供确定性的文件拥有证明,具有较低的计算和传输开销,而h MAC-Dedup方案则通过对抽样数据块密文和其标签进行同态MAC运算提供概率性的文件拥有证明,具有较低的额外存储开销。分析与比较表明,本方案在同时支持两级客户端机密数据安全去重和抵抗对数据块的暴力搜索攻击方面具有明显优势。 展开更多
关键词 云存储 机密数据去重 数据拥有证明 Merkle散列树 同态MAC
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部