期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
分层并行计算模型 被引量:9
1
作者 陈国良 苗乾坤 +2 位作者 孙广中 徐云 郑启龙 《中国科学技术大学学报》 CAS CSCD 北大核心 2008年第7期841-847,共7页
传统单一的并行计算模型变得越来越复杂,对并行计算各阶段针对性不强、指导能力差的特点,为此提出了对并行计算模型分层研究的思想,依此把并行计算模型分为并行算法设计模型、并行程序设计模型、并行程序执行模型三个层次,分别给出了各... 传统单一的并行计算模型变得越来越复杂,对并行计算各阶段针对性不强、指导能力差的特点,为此提出了对并行计算模型分层研究的思想,依此把并行计算模型分为并行算法设计模型、并行程序设计模型、并行程序执行模型三个层次,分别给出了各个模型的特点及研究内容.理论分析结果表明,通过分层,每个阶段的模型分工明确,目标单一,指导性强. 展开更多
关键词 分层并行计算模型 并行算法设计模型 并行程序设计模型 并行程序执行模型
在线阅读 下载PDF
一种新并行遗传算法及其应用 被引量:2
2
作者 唐钟 张葛祥 《计算机应用与软件》 CSCD 北大核心 2005年第7期9-11,71,共4页
基于量子计算的概念和原理,本文提出一种新并行量子遗传算法,即粗粒度并行量子遗传算法(CGPQGA)。该算法的核心是引入层环粗粒度并行计算模型和一种新进化策略。由于CGPQGA只需迁移搜索到的最佳个体到各个子群体,因而算法的通信开销很... 基于量子计算的概念和原理,本文提出一种新并行量子遗传算法,即粗粒度并行量子遗传算法(CGPQGA)。该算法的核心是引入层环粗粒度并行计算模型和一种新进化策略。由于CGPQGA只需迁移搜索到的最佳个体到各个子群体,因而算法的通信开销很小。通过用CGPQGA设计控制器的应用实例表明,CGPQGA优于常规并行遗传算法,能加速子群体中最佳个体的迁移,收敛速度快,全局寻优能力强,同时具有勘探和开采的能力。 展开更多
关键词 并行遗传算法 量子遗传算法 并行计算模型 全局寻优能力 量子计算 进化策略 通信开销 应用实例 收敛速度 粗粒度 子群体 控制器 个体 最佳 迁移 搜索
在线阅读 下载PDF
更实际的并行算法的设计
3
作者 寿标 李晓峰 《计算机研究与发展》 EI CSCD 北大核心 1996年第6期445-449,共5页
大规模并行计算机(MPC)的出现和发展迫切要求有新的并行算法设计理论和技术来指导更实际的并行算法的设计。本文首先简单介绍了针对MPC提出的LogP和Barier-LogP并行计算模型,然后借助于Barrier-Log... 大规模并行计算机(MPC)的出现和发展迫切要求有新的并行算法设计理论和技术来指导更实际的并行算法的设计。本文首先简单介绍了针对MPC提出的LogP和Barier-LogP并行计算模型,然后借助于Barrier-LogP模型从通信平衡、数据分配和重叠通信与计算这三个方面讨论了更实际的并行算法设计的一般方法和技巧。 展开更多
关键词 并行计算机 并行计算模型 并行算法 设计
在线阅读 下载PDF
基于OpenMP的文件压缩与解压的并行设计模型 被引量:2
4
作者 胡荣 邹承明 《中南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2014年第8期2684-2690,共7页
在多核环境下,对文件压缩与解压并行算法进行研究,提出一种基于OpenMP的文件压缩处理并行设计模型。该模型由查找热点代码、并行化分析、并行建模、实现、调试等步骤组成。以动态哈夫曼算法为研究算法,将多核压缩处理并行设计模型应用... 在多核环境下,对文件压缩与解压并行算法进行研究,提出一种基于OpenMP的文件压缩处理并行设计模型。该模型由查找热点代码、并行化分析、并行建模、实现、调试等步骤组成。以动态哈夫曼算法为研究算法,将多核压缩处理并行设计模型应用到文件压缩与解压中。并在文件并行处理过程中,与数据分解法相结合对数据文件进行分割,将分解后的数据由主线程分给多个处理器上的多个子线程来并行处理,以此提高多核处理器的利用率并提高文件压缩效率。最后通过实验模拟验证模型以及算法性能。研究结果表明:在八核处理器下通过对文本文件、图像文件和音频文件等多种不同类型文件进行压缩解压试验,验证了动态Huffman并行算法与串行算法相比其加速比可以达到1.5~8.0倍,性能也得到很大提高。 展开更多
关键词 OPENMP 并行设计模型 多核多线程 Huffman并行算法
在线阅读 下载PDF
FAQ-CNN:面向量化卷积神经网络的嵌入式FPGA可扩展加速框架 被引量:8
5
作者 谢坤鹏 卢冶 +4 位作者 靳宗明 刘义情 龚成 陈新伟 李涛 《计算机研究与发展》 EI CSCD 北大核心 2022年第7期1409-1427,共19页
卷积神经网络(convolutional neural network, CNN)模型量化可有效压缩模型尺寸并提升CNN计算效率.然而,CNN模型量化算法的加速器设计,通常面临算法各异、代码模块复用性差、数据交换效率低、资源利用不充分等问题.对此,提出一种面向量... 卷积神经网络(convolutional neural network, CNN)模型量化可有效压缩模型尺寸并提升CNN计算效率.然而,CNN模型量化算法的加速器设计,通常面临算法各异、代码模块复用性差、数据交换效率低、资源利用不充分等问题.对此,提出一种面向量化CNN的嵌入式FPGA加速框架FAQ-CNN,从计算、通信和存储3方面进行联合优化,FAQ-CNN以软件工具的形式支持快速部署量化CNN模型.首先,设计面向量化算法的组件,将量化算法自身的运算操作和数值映射过程进行分离;综合运用算子融合、双缓冲和流水线等优化技术,提升CNN推理任务内部的并行执行效率.然后,提出分级编码与位宽无关编码规则和并行解码方法,支持低位宽数据的高效批量传输和并行计算.最后,建立资源配置优化模型并转为整数非线性规划问题,在求解时采用启发式剪枝策略缩小设计空间规模.实验结果表明,FAQ-CNN能够高效灵活地实现各类量化CNN加速器.在激活值和权值为16 b时,FAQ-CNN的加速器计算性能是Caffeine的1.4倍;在激活值和权值为8 b时,FAQ-CNN可获得高达1.23TOPS的优越性能. 展开更多
关键词 卷积神经网络量化 量化算法解耦 并行编解码 片上资源建模 加速器设计
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部