期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
细粒度信任链研究方法 被引量:4
1
作者 石文昌 单智勇 +2 位作者 梁彬 梁朝晖 董铭 《计算机科学》 CSCD 北大核心 2008年第9期1-4,共4页
分析信任链相关研究的当前发展水平,提出细粒度信任链和细粒度系统软件信任链的思想,阐明只有细粒度信任链才能描述现实应用的真实情况。根据问题空间的复杂性,提出细粒度信任链建模的问题分解方法。该方法通过逐步拓展的策略,首先建立... 分析信任链相关研究的当前发展水平,提出细粒度信任链和细粒度系统软件信任链的思想,阐明只有细粒度信任链才能描述现实应用的真实情况。根据问题空间的复杂性,提出细粒度信任链建模的问题分解方法。该方法通过逐步拓展的策略,首先建立细粒度系统软件信任链模型,然后在此基础上建立完全的细粒度信任链模型。 展开更多
关键词 信任链 系统软件 可信计算 完整性 度量
在线阅读 下载PDF
不对称内存计算平台OLAP查询处理技术研究 被引量:3
2
作者 张延松 张宇 +1 位作者 周烜 王珊 《华东师范大学学报(自然科学版)》 CAS CSCD 北大核心 2016年第5期89-102,共14页
给出了一种面向当前和未来不对称内存计算平台的OLAP查询处理技术.不对称内存计算平台是指配置有不同计算类型的处理器、不同存储访问设备的计算机,因此需要对OLAP查询处理模型按不同的计算特点进行优化存储配置和实现算法设计,从而使O... 给出了一种面向当前和未来不对称内存计算平台的OLAP查询处理技术.不对称内存计算平台是指配置有不同计算类型的处理器、不同存储访问设备的计算机,因此需要对OLAP查询处理模型按不同的计算特点进行优化存储配置和实现算法设计,从而使OLAP查询处理的不同阶段更好地适应相应的存储与计算设备的硬件特点,提高硬件设备的利用率,更好地发挥硬件的性能.提出了3阶段OLAP计算模型,将传统基于迭代处理模型的OLAP查询处理过程分解为计算密集型和数据密集型负载,分别由功能完备的通用处理器和并行计算能力强大的协处理器分而治之地完成,并最小化不同存储与计算设备之间的数据传输代价.实验结果表明基于负载划分的3阶段OLAP计算模型能够较好地适应CPU-Phi不对称计算平台,实现通过计算型硬件加速计算密集型负载,从而加速整个OLAP查询处理性能的目标. 展开更多
关键词 内存计算 不对称计算平台 内存联机分析处理
在线阅读 下载PDF
内存数据仓库集群技术研究 被引量:2
3
作者 张延松 王珊 周烜 《华东师范大学学报(自然科学版)》 CAS CSCD 北大核心 2014年第5期117-132,共16页
随着硬件的集成度不断提高,多核处理器和大内存成为当前主流的计算平台,内存计算也成为新兴的高性能数据分析平台.内存数据仓库集群技术面向高性能分析计算,是实现大数据实时分析的基础平台.本文概括地介绍了中国人民大学高性能数据库... 随着硬件的集成度不断提高,多核处理器和大内存成为当前主流的计算平台,内存计算也成为新兴的高性能数据分析平台.内存数据仓库集群技术面向高性能分析计算,是实现大数据实时分析的基础平台.本文概括地介绍了中国人民大学高性能数据库团队在内存数据仓库集群技术方面的研究工作,包括:以列分布和列计算服务为中心的ScaMMDB内存数据仓库集群,以水平分片、并行计算为中心的ScaMMDBⅡ和reverse-star schema分布、集群向量计算为特征的MiNT-OLAP Cluster等技术的研究发展过程.分析了内存数据仓库集群技术的关键问题及技术挑战,并针对新的内存数据仓库集群应用需求展望未来技术的发展. 展开更多
关键词 内存数据仓库 集群 向量计算
在线阅读 下载PDF
Co-OLAP:CPU&GPU混合平台上面向星形模型基准的协同OLAP(英文)
4
作者 张宇 张延松 +2 位作者 张兵 陈红 王珊 《华东师范大学学报(自然科学版)》 CAS CSCD 北大核心 2014年第5期240-251,共12页
当前GPU(图形处理器),即使是中端服务器配置的中端GPU也拥有强大的并行计算能力.不同于近期的研究成果,中端服务器可能配置有几块高端CPU和一块中端GPU,GPU能够提供额外的计算能力而不是提供比CPU更加强大的计算能力.本文以中端工作站上... 当前GPU(图形处理器),即使是中端服务器配置的中端GPU也拥有强大的并行计算能力.不同于近期的研究成果,中端服务器可能配置有几块高端CPU和一块中端GPU,GPU能够提供额外的计算能力而不是提供比CPU更加强大的计算能力.本文以中端工作站上的CoOLAP(协同OLAP)为中心,描述如何使中端GPU与强大的CPU协同以及如何在计算均衡的异构平台上分布数据和计算以使Co-OLAP模型简单而高效.根据实际的配置,基于内存容量,GPU显存容量,数据集模式和订制的AIR(数组地址引用)算法提出了最大高性能数据分布模型.CoOLAP模型将数据划分为驻留于内存和GPU显存的数据集,OLAP计算也划分为CPU和GPU端的自适应计算负载来最小化CPU和GPU内存之间的数据传输代价.实验结果显示,在SF=20的SSB(星形模型基准)测试中,两块至强六核处理器的性能略优于一块NVIDA Quadra 5 000GPU(352个cuda核心)的处理性能,Co-OLAP模型可以将负载均衡分布在异构计算平台并使每个平台简单而高效. 展开更多
关键词 GPU(图形处理器) OLAP(联机分析处理) Co-OLAP(协同OLAP) AIR(数组地址引用)
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部