期刊文献+
共找到2,381篇文章
< 1 2 120 >
每页显示 20 50 100
局域网流媒体Caching代理服务器的实现 被引量:2
1
作者 谭劲 余胜生 周敬利 《计算机科学》 CSCD 北大核心 2003年第10期141-143,共3页
1概述 随着流媒体应用程序在互联网上的广泛应用,必将给Internet的负载带来巨大的变化.基于包交换的Internet不是为实时、不间断的流媒体传输而设计的,因此互联网上的流媒体系统将受到了以下4个方面的限制.
关键词 局域网 流媒体 caching 代理服务器 网络负载
在线阅读 下载PDF
Web Caching技术和CDN技术及其比较分析 被引量:15
2
作者 霍耀森 盛大同 《计算机应用研究》 CSCD 北大核心 2003年第5期135-137,共3页
对为提高服务网络质量而出现的一"拉"一"推"两种技术———WebCaching技术和CDN技术作了简要介绍,并从两者各自常见的体系结构出发对两种技术的性能和特点进行了比较分析,结论是CDN技术在减小源服务器负载等方面优... 对为提高服务网络质量而出现的一"拉"一"推"两种技术———WebCaching技术和CDN技术作了简要介绍,并从两者各自常见的体系结构出发对两种技术的性能和特点进行了比较分析,结论是CDN技术在减小源服务器负载等方面优于单纯的WebCaching技术;最后指出进一步的研究方向。 展开更多
关键词 INTERNET 计算机网络 服务质量 网络带宽 Webcaching技术 CDN技术
在线阅读 下载PDF
GCaching——一种网格协同缓存系统 被引量:3
3
作者 李文中 顾铁成 +2 位作者 李春洪 陆桑璐 陈道蓄 《计算机研究与发展》 EI CSCD 北大核心 2004年第12期2211-2217,共7页
协同缓存通过多个代理缓存服务器的协同工作 ,可以充分利用各服务器的缓存空间 ,提高缓存命中率 网格技术可以方便地共享和整合异构的服务器资源 结合网格和协同技术 ,提出了一种网格协同缓存系统GCaching ,它将地域上分布的多个代理... 协同缓存通过多个代理缓存服务器的协同工作 ,可以充分利用各服务器的缓存空间 ,提高缓存命中率 网格技术可以方便地共享和整合异构的服务器资源 结合网格和协同技术 ,提出了一种网格协同缓存系统GCaching ,它将地域上分布的多个代理缓存服务器组成缓存池 ,充分利用缓存资源 ,协同工作 ,为用户提供更好的服务能力 GCaching系统设计并实现了一种缓存放置和替换算法GCPR ,它使用周期缓存更新策略 ,根据用户访问模式自适应地调整缓存数据的分布 仿真实验表明 。 展开更多
关键词 网格 协同缓存
在线阅读 下载PDF
基于内容的Web Caching 被引量:1
4
作者 张兴军 钱德沛 +2 位作者 刘轶 朱利 李越 《小型微型计算机系统》 CSCD 北大核心 2004年第8期1415-1419,共5页
提出一个新的 Web Caching结构模型—基于内容的 Web Caching.模型综合考虑了 Proxy的操作信息和 Web文档的内容特性 ,界定了虚拟用户团体和 Proxy个性 ,并利用 Ontology技术来刻画 Proxy的个性 ,模拟实验表明 ,结合内容属性可以使得 Web
关键词 Web缓冲 内容特性 知识本体 替换算法
在线阅读 下载PDF
一种基于Sever和Proxy流媒体流行性的Caching策略
5
作者 谭劲 余胜生 周敬利 《计算机科学》 CSCD 北大核心 2003年第4期70-72,101,共4页
1 概述经过了2000、2001两年的社区宽带网建设的高速发展后,摆在中国ISP们面前的任务是如何在已建成的宽带网上开展增值服务,许多ISP尝试在宽带网上开展流媒体(Streaming Media)服务,如视频点播VOD(Video On-Demand)系统。然而,流媒体... 1 概述经过了2000、2001两年的社区宽带网建设的高速发展后,摆在中国ISP们面前的任务是如何在已建成的宽带网上开展增值服务,许多ISP尝试在宽带网上开展流媒体(Streaming Media)服务,如视频点播VOD(Video On-Demand)系统。然而,流媒体对网络带宽和实时性的要求使得流服务器必须能够进行端对端(End-to-End)的拥塞控制和质量调整。 展开更多
关键词 Internet 拥塞控制 代理服务器 流媒体 流行性 caching策略 服务器 宽带网
在线阅读 下载PDF
一种基于分布式Caching的自适应搜索机制 被引量:1
6
作者 李鹏 蔡乐才 《现代电子技术》 2008年第10期139-141,144,共4页
针对基于Gnutella协议的非结构P2P网络中利用洪泛搜索机制进行资源搜索的网络流量大,效率低等问题,提出一种基于分布式Caching的自适应搜索机制。在使用该搜索机制的Gnutella网络中,所有的节点在逻辑上分成多层,在同一层的节点有相同的g... 针对基于Gnutella协议的非结构P2P网络中利用洪泛搜索机制进行资源搜索的网络流量大,效率低等问题,提出一种基于分布式Caching的自适应搜索机制。在使用该搜索机制的Gnutella网络中,所有的节点在逻辑上分成多层,在同一层的节点有相同的group ID,洪泛查询被限制在与group ID匹配的一层。通过实验与统一索引Caching机制比较,该搜索机制在不增加响应时间的条件下,能有效地减少网络流量,提高搜索效率。 展开更多
关键词 非结构化P2P 分布式caching 自适应搜索 GNUTELLA
在线阅读 下载PDF
内存高效的持久性分布式文件系统客户端缓存DFS-Cache 被引量:3
7
作者 倪瑞轩 蔡淼 叶保留 《计算机应用》 CSCD 北大核心 2024年第4期1172-1179,共8页
为了在数据密集型工作流下有效降低缓存碎片整理开销并提高缓存命中率,提出一种持久性分布式文件系统客户端缓存DFS-Cache(Distributed File System Cache)。DFS-Cache基于非易失性内存(NVM)设计实现,能够保证数据的持久性和崩溃一致性... 为了在数据密集型工作流下有效降低缓存碎片整理开销并提高缓存命中率,提出一种持久性分布式文件系统客户端缓存DFS-Cache(Distributed File System Cache)。DFS-Cache基于非易失性内存(NVM)设计实现,能够保证数据的持久性和崩溃一致性,并大幅减少冷启动时间。DFS-Cache包括基于虚拟内存重映射的缓存碎片整理机制和基于生存时间(TTL)的缓存空间管理策略。前者基于NVM可被内存控制器直接寻址的特性,动态修改虚拟地址和物理地址之间的映射关系,实现零拷贝的内存碎片整理;后者是一种冷热分离的分组管理策略,借助重映射的缓存碎片整理机制,提升缓存空间的管理效率。实验采用真实的Intel傲腾持久性内存设备,对比商用的分布式文件系统MooseFS和GlusterFS,采用Fio和Filebench等标准测试程序,DFS-Cache最高能提升5.73倍和1.89倍的系统吞吐量。 展开更多
关键词 非易失性内存 分布式文件系统 客户端缓存 缓存碎片整理 冷热数据分组 缓存设计
在线阅读 下载PDF
辣椒查尔酮合成酶基因CaCHS02的克隆及功能分析
8
作者 王小迪 李宁 +5 位作者 高升华 尹延旭 徐凯 詹晓慧 姚明华 王飞 《辣椒杂志》 2024年第3期1-10,共10页
查尔酮合成酶(Chalcone synthase,CHS)基因在植物黄酮类物质代谢过程中发挥重要作用。为研究查尔酮合成酶基因CaCHS02在辣椒(Capsicum annuum L.)中辣椒类黄酮代谢过程中的功能,本研究分析了CaCHS02基因的基因特征、蛋白特点和基因表达... 查尔酮合成酶(Chalcone synthase,CHS)基因在植物黄酮类物质代谢过程中发挥重要作用。为研究查尔酮合成酶基因CaCHS02在辣椒(Capsicum annuum L.)中辣椒类黄酮代谢过程中的功能,本研究分析了CaCHS02基因的基因特征、蛋白特点和基因表达模式,并构建了CaCHS02过表达载体,通过农杆菌介导法获得瞬时过表达CaCHS02(35S:CaCHS02)的辣椒植株。结果发现,瞬时过表达CaCHS02的辣椒植株叶片中CaCHS02发生显著超量表达,其中编码类黄酮代谢途径中其他关键酶基因(CaCHS02、CaPAL、CaC4H、Ca4CL、CaCHI、CaFLS和CaF3H)的表达水平同步显著上调;超表达CaCHS02促进辣椒叶片中查尔酮合成酶酶活性、总黄酮含量和辣椒叶片的α-葡糖糖苷酶抑制活性的提升。研究表明,CaCHS02在辣椒类黄酮代谢过程中发挥正向调控功能,过表达CaCHS02提高了辣椒叶片的α-葡糖糖苷酶抑制活性。本研究为解析辣椒α-葡萄糖苷酶抑制剂生物合成机制奠定了基础,为选育高α-葡糖糖苷酶抑制活性的功能辣椒品种提供了理论支持。 展开更多
关键词 辣椒 查尔酮合成酶 cachS02 类黄酮 α-葡糖糖苷酶抑制活性
在线阅读 下载PDF
一种带Cache加速的HyperRAM控制器设计与验证
9
作者 邹敏 鲁澳宇 +1 位作者 邹望辉 喻华 《现代电子技术》 北大核心 2024年第6期91-96,共6页
针对目前可穿戴设备上对存储设备性能要求高、体积小、功耗低等问题,在FPGA上实现了一款可拓展的高性能HyperRAM控制器,并引入Cache缓存加速设计,以提高对频繁访问数据的命中率和优化存储器访问模式,实现更高速的数据传输和优化的系统... 针对目前可穿戴设备上对存储设备性能要求高、体积小、功耗低等问题,在FPGA上实现了一款可拓展的高性能HyperRAM控制器,并引入Cache缓存加速设计,以提高对频繁访问数据的命中率和优化存储器访问模式,实现更高速的数据传输和优化的系统性能。运用UVM验证方法学和FPGA进行验证,结果表明,带有Cache缓存的HyperRAM控制器相较于普通HyperRAM,在读写连续地址时性能提高61%,并具有较好的可靠性与有效性,可为嵌入式系统提供高效、灵活的存储器解决方案。 展开更多
关键词 HyperRAM控制器 cache缓存 可穿戴设备 存储器 UVM验证方法学 FPGA
在线阅读 下载PDF
Efficient cache replacement framework based on access hotness for spacecraft processors
10
作者 GAO Xin NIAN Jiawei +1 位作者 LIU Hongjin YANG Mengfei 《中国空间科学技术(中英文)》 CSCD 北大核心 2024年第2期74-88,共15页
A notable portion of cachelines in real-world workloads exhibits inner non-uniform access behaviors.However,modern cache management rarely considers this fine-grained feature,which impacts the effective cache capacity... A notable portion of cachelines in real-world workloads exhibits inner non-uniform access behaviors.However,modern cache management rarely considers this fine-grained feature,which impacts the effective cache capacity of contemporary high-performance spacecraft processors.To harness these non-uniform access behaviors,an efficient cache replacement framework featuring an auxiliary cache specifically designed to retain evicted hot data was proposed.This framework reconstructs the cache replacement policy,facilitating data migration between the main cache and the auxiliary cache.Unlike traditional cacheline-granularity policies,the approach excels at identifying and evicting infrequently used data,thereby optimizing cache utilization.The evaluation shows impressive performance improvement,especially on workloads with irregular access patterns.Benefiting from fine granularity,the proposal achieves superior storage efficiency compared with commonly used cache management schemes,providing a potential optimization opportunity for modern resource-constrained processors,such as spacecraft processors.Furthermore,the framework complements existing modern cache replacement policies and can be seamlessly integrated with minimal modifications,enhancing their overall efficacy. 展开更多
关键词 spacecraft processors cache management replacement policy storage efficiency memory hierarchy MICROARCHITECTURE
在线阅读 下载PDF
Graph4Cache:一种用于缓存预取的图神经网络模型
11
作者 尚晶 武智晖 +1 位作者 肖智文 张逸飞 《计算机研究与发展》 EI CSCD 北大核心 2024年第8期1945-1956,共12页
大多数计算系统利用缓存来减少数据访问时间,加快数据处理并平衡服务负载.缓存管理的关键在于确定即将被加载到缓存中或从缓存中丢弃的合适数据,以及进行缓存置换的合适时机,这对于提高缓存命中率至关重要.现有的缓存方案面临2个问题:... 大多数计算系统利用缓存来减少数据访问时间,加快数据处理并平衡服务负载.缓存管理的关键在于确定即将被加载到缓存中或从缓存中丢弃的合适数据,以及进行缓存置换的合适时机,这对于提高缓存命中率至关重要.现有的缓存方案面临2个问题:在实时的、在线的缓存场景下难以洞察用户访问数据的热度信息,以及忽略了数据访问序列之间复杂的高阶信息.提出了一个基于GNN的缓存预取网络Graph4Cache.通过将单个访问序列建模为有向图(ASGraph),并引入虚拟节点聚合图中所有节点的信息和表示整个序列.然后由ASGraph的虚拟节点构造一个跨序列无向图(CSGraph)来学习跨序列特征,这极大地丰富了单个序列中有限的数据项转换模式.通过融合这2种图结构的信息,学习到了序列之间的高阶关联信息,并获取了丰富的用户意图.在多个公共数据集上的实验结果证明了该方法的有效性.Graph4Cache在P@20和MRR@20上均优于现有的缓存预测算法. 展开更多
关键词 图神经网络 缓存预取 访问序列图 跨序列图 缓存预测
在线阅读 下载PDF
符合粒子输运模拟的专用加速器体系结构
12
作者 张建民 刘津津 +1 位作者 许炜康 黎铁军 《国防科技大学学报》 北大核心 2025年第2期155-164,共10页
粒子输运模拟是高性能计算机的主要应用,对于其日益增长的计算规模需求,通用微处理器由于其单核结构复杂,无法适应程序特征,难以获得较高的性能功耗比。因此,对求解粒子输运非确定性数值模拟的程序特征进行提取与分析;基于算法特征,对... 粒子输运模拟是高性能计算机的主要应用,对于其日益增长的计算规模需求,通用微处理器由于其单核结构复杂,无法适应程序特征,难以获得较高的性能功耗比。因此,对求解粒子输运非确定性数值模拟的程序特征进行提取与分析;基于算法特征,对开源微处理器内核架构进行定制设计,包括加速器流水线结构、分支预测部件、多级Cache层次与主存设计,构建一种符合粒子输运程序特征的专用加速器体系结构。在业界通用体系结构模拟器上运行粒子输运程序的模拟结果表明,与ARM Cortex-A15相比,所提出的专用加速器体系结构在同等功耗下可获得4.6倍的性能提升,在同等面积下可获得3.2倍的性能提升。 展开更多
关键词 粒子输运模拟 专用加速器 程序特征 分支预测 多级cache
在线阅读 下载PDF
面向DAG任务的分布式智能计算卸载和服务缓存联合优化 被引量:1
13
作者 李云 南子煜 +2 位作者 姚枝秀 夏士超 鲜永菊 《中山大学学报(自然科学版)(中英文)》 CAS 北大核心 2025年第1期71-82,共12页
建立了一种有向无环图(DAG,directed acyclic graph)任务卸载和资源优化问题,旨在应用最大可容忍时延等约束实现系统能耗最小化。考虑到网络中计算请求高度动态、完整的系统状态信息难以获取等因素,最后使用多智能体深度确定性策略梯度(... 建立了一种有向无环图(DAG,directed acyclic graph)任务卸载和资源优化问题,旨在应用最大可容忍时延等约束实现系统能耗最小化。考虑到网络中计算请求高度动态、完整的系统状态信息难以获取等因素,最后使用多智能体深度确定性策略梯度(MADDPG,multi-agent deep deterministic policy gradient)算法来探寻最优的策略。相比于现有的任务卸载算法,MADDPG算法能够降低14.2%至40.8%的系统平均能耗,并且本地缓存命中率提高3.7%至4.1%。 展开更多
关键词 移动边缘计算 多智能体深度强化学习 计算卸载 资源分配 服务缓存
在线阅读 下载PDF
一种高性能PCIe接口设计与实现
14
作者 张梅娟 辛昆鹏 周迁 《现代电子技术》 北大核心 2025年第8期70-74,共5页
多款处理器在PCIe 2.0×4下传输速率不足理论带宽的20%,最高仅有380 MB/s,不能满足实际应用需求。为解决嵌入式处理器PCIe接口传输速率过低的问题,设计一款高性能PCIe接口,有效提高了接口数据传输速率。经性能瓶颈系统分析,增加设计... 多款处理器在PCIe 2.0×4下传输速率不足理论带宽的20%,最高仅有380 MB/s,不能满足实际应用需求。为解决嵌入式处理器PCIe接口传输速率过低的问题,设计一款高性能PCIe接口,有效提高了接口数据传输速率。经性能瓶颈系统分析,增加设计PCIe DMA与处理器Cache一致性功能,能解决DMA传输完成后软件Cache同步耗时严重的问题,使速率提升3.8倍,达到1 450 MB/s。在硬件设计上DMA支持链表模式,通过描述符链表将分散的内存集聚起来,一次DMA启动可完成多个非连续地址内存的数据传输,并优化与改进软件驱动中分散集聚DMA实现方式,充分利用硬件Cache一致性功能,进一步提升10%的传输速率,最终达到PCIe 2.0×4理论带宽的80%。此外,该PCIe接口采用多通道DMA的设计,最大支持8路独立DMA读写通道,可应用于多核多任务并行传输数据的应用场景,更进一步提升整体数据传输带宽。经验证,该PCIe接口具有良好的稳定性和高效性,最大可支持8通道数据并行传输,且单通道传输速率可达到理论速率的80%。 展开更多
关键词 PCIe接口 DMA控制器 高速数据传输 cachE一致性 多通道设计 分散集聚 链表模式
在线阅读 下载PDF
北京全球信息系统中心全球数据缓存设计与应用
15
作者 顾文静 郭萍 +7 位作者 张来恩 薛蕾 韩鑫强 高峰 何文春 王怀乐 王鹏 王博 《应用气象学报》 北大核心 2025年第4期490-499,共10页
随着气象数据量呈指数级增长,世界气象组织信息系统(World Meteorological Organization Information Sys-tem,WIS)/全球电信系统(Global Telecommunication System,GTS)架构难以契合未来全球气象数据实时交互需求,2023年气象大会开启... 随着气象数据量呈指数级增长,世界气象组织信息系统(World Meteorological Organization Information Sys-tem,WIS)/全球电信系统(Global Telecommunication System,GTS)架构难以契合未来全球气象数据实时交互需求,2023年气象大会开启以世界气象组织信息系统2.0(World Meteorological Organization Information System 2.0,WIS2.0)取代WIS/GTS的进程,中国气象局向世界气象组织(World Meteorological Organization,WMO)承诺建设WIS2.0的四大全球服务系统,全球数据缓存(global cache)作为其中之一,负责实时收集汇聚全球数据,并提供数据共享服务,应用数据主动发现技术,构建高性能、低时延的消息收集传输模型;采用最优路径汇集和基于特征信息的识别清洗技术,实现数据最短时间内的汇聚;构建标准化的主题层次结构,发布全球数据和元数据到达的消息通知,为全球用户提供高吞吐、高并发的数据下载服务。全球数据缓存2024年10月通过WMO测试,2025年业务运行,截至2025年5月从全球82个世界气象组织信息系统2.0节点(简称WIS2节点)获取数据,缓存数据量约为2 TB·d^(-1),支撑全球WIS2节点日平均数据下载次数超过2×10^(6) d^(-1),为中国气象局“全球监测、全球预报、全球服务”提供地球系统多圈层数据的支撑保障。 展开更多
关键词 WMO信息系统 主动发现 全球缓存服务
在线阅读 下载PDF
基于帧保序缓存的时间敏感网络FRER机制
16
作者 蔡岳平 胡绍柳 韩笑 《通信学报》 北大核心 2025年第3期164-173,共10页
为解决时间敏感网络帧复制与消除可靠性(FRER)机制的帧乱序导致缓存区溢出帧丢弃问题,提出了一种基于相交节点处帧保序缓存的FRER机制。该机制在FRER路径对的相交节点处通过帧到达事件和定时器超时事件提前对无序帧进行重排序,保证帧的... 为解决时间敏感网络帧复制与消除可靠性(FRER)机制的帧乱序导致缓存区溢出帧丢弃问题,提出了一种基于相交节点处帧保序缓存的FRER机制。该机制在FRER路径对的相交节点处通过帧到达事件和定时器超时事件提前对无序帧进行重排序,保证帧的有序转发。同时还对保序缓存区大小和定时器的设计进行了分析。仿真结果表明,与传统帧排序机制相比,所提机制有效降低了帧丢失率、平均时延及抖动。 展开更多
关键词 时间敏感网络 帧复制与消除 保序缓存
在线阅读 下载PDF
支持能量收集与缓存的高铁通信系统
17
作者 邵轲 吴松洋 +2 位作者 齐力 孙磊 许炜阳 《电讯技术》 北大核心 2025年第5期767-776,共10页
针对高铁通信系统中链路频繁切换、基站位置偏远等固有劣势导致感知质量下降及运维成本高等问题,提出了一种融合能量收集与边缘缓存的高铁通信系统架构。为实现保证通信服务质量的同时优化系统能耗这个目标,以通信、缓存和能量资源为约... 针对高铁通信系统中链路频繁切换、基站位置偏远等固有劣势导致感知质量下降及运维成本高等问题,提出了一种融合能量收集与边缘缓存的高铁通信系统架构。为实现保证通信服务质量的同时优化系统能耗这个目标,以通信、缓存和能量资源为约束,构建联合系统信息服务量与系统电网能量消耗的收益函数,采用拉格朗日乘子法获得无线携能传输时间分配和基站发射功率分配方案,以Karush-Kuhn-Tucker(KKT)条件为理论基础推导基站缓存数据量与最优时间分配方案之间的关系,并将收益函数简化为仅与基站缓存策略相关的优化问题。仿真结果表明,所提出的基于贪婪算法的缓存策略能够有效提升系统通信服务质量并降低能耗,在不同偏度因子下,目标函数值相比现有概率缓存策略平均提升至少5%,同时系统电网能量消耗可降低约3%。 展开更多
关键词 高铁通信 无线携能传输(SWIPT) 能量收集 边缘缓存
在线阅读 下载PDF
云边端场景下基于多智能体深度强化学习的边缘缓存策略
18
作者 王海艳 常博 骆健 《通信学报》 北大核心 2025年第6期153-167,共15页
云边端场景下,边缘缓存技术旨在通过促进边缘节点间的协同内容分发,减轻回程链路的流量负载并提升服务质量。考虑内容流行度的动态变化,提出了一种基于时间卷积网络的内容请求状态预测(TCNCRSP)模型。在此基础上,以最大化累积奖励为目标... 云边端场景下,边缘缓存技术旨在通过促进边缘节点间的协同内容分发,减轻回程链路的流量负载并提升服务质量。考虑内容流行度的动态变化,提出了一种基于时间卷积网络的内容请求状态预测(TCNCRSP)模型。在此基础上,以最大化累积奖励为目标,提出了一种基于多智能体深度强化学习算法的边缘缓存策略,通过在云端利用长短期记忆(LSTM)网络对各边缘节点的状态数据进行降维处理,生成低维全局状态,减少状态共享所需的通信成本。实验结果显示,所提方法显著提升了缓存命中率和服务质量,同时降低了系统开销。 展开更多
关键词 云边端协同 边缘缓存 内容流行度预测 时间卷积网络 深度强化学习
在线阅读 下载PDF
基于缓存数据重用的稀疏矩阵向量乘序列优化
19
作者 徐传福 邱昊中 车永刚 《计算机研究与发展》 北大核心 2025年第6期1434-1442,共9页
稀疏线性方程组求解等高性能计算应用常常涉及稀疏矩阵向量乘(SpMV)序列Ax,A2x,…,Asx的计算.上述SpMV序列操作又称为稀疏矩阵幂函数(matrix power kernel,MPK).由于MPK执行多次SpMV且稀疏矩阵保持不变,在缓存(cache)中重用稀疏矩阵,可... 稀疏线性方程组求解等高性能计算应用常常涉及稀疏矩阵向量乘(SpMV)序列Ax,A2x,…,Asx的计算.上述SpMV序列操作又称为稀疏矩阵幂函数(matrix power kernel,MPK).由于MPK执行多次SpMV且稀疏矩阵保持不变,在缓存(cache)中重用稀疏矩阵,可避免每次执行SpMV均从主存加载A,从而缓解SpMV访存受限问题,提升MPK性能.但缓存数据重用会导致相邻SpMV操作之间的数据依赖,现有MPK优化多针对单次SpMV调用,或在实现数据重用时引入过多额外开销.提出了缓存感知的MPK(cache-awareMPK,Ca-MPK),基于稀疏矩阵的依赖图,设计了体系结构感知的递归划分方法,将依赖图划分为适合缓存大小的子图/子矩阵,通过构建分割子图解耦数据依赖,根据特定顺序在子矩阵上调度执行SpMV,实现缓存数据重用.测试结果表明,Ca-MPK相对于Intel OneMKL库和最新MPK实现,平均性能提升分别多达约1.57倍和1.40倍. 展开更多
关键词 稀疏矩阵向量乘 矩阵幂函数 缓存数据重用 数据依赖 稀疏线性方程组求解
在线阅读 下载PDF
边缘计算场景下基于PSI的多方共享缓存隐私保护方案
20
作者 赖成喆 杨婷 +1 位作者 秦宝东 曹进 《通信学报》 北大核心 2025年第7期78-91,共14页
针对多方共享缓存中的数据隐私问题,提出了一个支持高效数据共享的多方隐私集合交集(PSI)协议。该协议基于高效的多点不经意伪随机函数(OPRF),且易于扩展到多方环境中。此外,引入了可信的第三方云服务器多关键字检索Top-k算法,为用户提... 针对多方共享缓存中的数据隐私问题,提出了一个支持高效数据共享的多方隐私集合交集(PSI)协议。该协议基于高效的多点不经意伪随机函数(OPRF),且易于扩展到多方环境中。此外,引入了可信的第三方云服务器多关键字检索Top-k算法,为用户提供精确的查询结果。通过安全性分析和效率对比,证明所提协议在半诚实安全模型下实现了计算和通信开销的平衡。 展开更多
关键词 隐私集合交集 不经意伪随机函数 边缘计算 多方共享缓存 安全多方计算
在线阅读 下载PDF
上一页 1 2 120 下一页 到第
使用帮助 返回顶部