期刊文献+
共找到202篇文章
< 1 2 11 >
每页显示 20 50 100
基于多模型并行融合网络的恶意流量检测方法 被引量:3
1
作者 李向军 王俊洪 +3 位作者 王诗璐 陈金霞 孙纪涛 王建辉 《计算机应用》 CSCD 北大核心 2023年第S02期122-129,共8页
针对单一串行深度学习检测模型提取流量特征时无法完整反映原始流量信息,且恶意流量识别精度低的问题,设计多模型并行融合网络,提出一种基于多模型并行融合网络的恶意流量检测方法。所提方法采用并行方式,融合一维卷积神经网络(1D-CNN)... 针对单一串行深度学习检测模型提取流量特征时无法完整反映原始流量信息,且恶意流量识别精度低的问题,设计多模型并行融合网络,提出一种基于多模型并行融合网络的恶意流量检测方法。所提方法采用并行方式,融合一维卷积神经网络(1D-CNN)与双向长短期记忆(Bi-LSTM)网络进行特征提取和流量识别,各条支路均直接面向原始流量,同时提取流量的空间特征与时序特征,采用共同的全连接层进行特征融合,可更精准地反映原始流量信息并有效提高恶意流量的识别准确率。在开源NSL-KDD数据集上的实验结果表明,所提方法恶意流量检测的特征提取能力、鲁棒性以及在线学习能力等方面均表现了优越的性能。 展开更多
关键词 恶意流量检测 深度学习 模型并行融合 卷积神经网络 双向长短期记忆网络
在线阅读 下载PDF
面向混合异构架构的模型并行训练优化方法 被引量:2
2
作者 高开 郭振华 +3 位作者 陈永芳 王丽 赵雅倩 赵坤 《计算机工程与科学》 CSCD 北大核心 2021年第1期42-48,共7页
随着混合异构平台的发展,出现了类型不一的加速设备,如何在混合异构平台中充分利用这些不同类型的设备,以及如何在多个计算设备之间部署深度学习模型,而且训练大型和复杂模型的重要性不断提高。数据并行(DP)是应用最广泛的并行化策略,... 随着混合异构平台的发展,出现了类型不一的加速设备,如何在混合异构平台中充分利用这些不同类型的设备,以及如何在多个计算设备之间部署深度学习模型,而且训练大型和复杂模型的重要性不断提高。数据并行(DP)是应用最广泛的并行化策略,但是如果数据并行训练中的设备数量不断增加,设备之间的通信开销就会成为瓶颈。此外,每个步骤因设备性能差异处理的批总量不同会导致精度损失,即需要更长的训练周期以收敛到期望的精度。这些因素会影响整体训练时间,并且会影响某些设备的运行效率。除了数据并行(DP),每个训练步骤都可以通过模型并行(MP)来加速。提出了一种适合混合异构平台的模型并行训练优化算法。首先,为解决混合异构平台中设备性能分布不均问题,提出了层级并行和通道并行混合的模型并行划分策略,同时通过合并一些性能偏低的设备来减少流水线的长度和缓解通信压力。然后为了优化设备间的流水效果,通过分析流水线建立时间占比和设备性能利用率对整体训练时间的影响,提出了一种可以使两者达到均衡状态的微批次划分方法。实验表明,通过本文方法优化之后的模型并行流水训练算法比传统的模型并行算法具有更好的加速比,在单一类型设备的异构平台上的训练性能加速比提升4%左右,在混合异构平台的训练性能加速比要比没有使用优化方法之前提升7%左右。 展开更多
关键词 混合异构 模型并行 微批次 设备差异
在线阅读 下载PDF
面向模型并行训练的模型拆分策略自动生成方法 被引量:1
3
作者 王丽 郭振华 +3 位作者 曹芳 高开 赵雅倩 赵坤 《计算机工程与科学》 CSCD 北大核心 2020年第9期1529-1537,共9页
随着训练数据规模的增大以及训练模型的日趋复杂,深度神经网络的训练成本越来越高,对计算平台提出了更高的算力需求,模型训练并行化成为增强其应用时效性的迫切需求。近年来基于分布式训练的AI加速器(如FPGA、TPU、AI芯片等)层出不穷,... 随着训练数据规模的增大以及训练模型的日趋复杂,深度神经网络的训练成本越来越高,对计算平台提出了更高的算力需求,模型训练并行化成为增强其应用时效性的迫切需求。近年来基于分布式训练的AI加速器(如FPGA、TPU、AI芯片等)层出不穷,为深度神经网络并行训练提供了硬件基础。为了充分利用各种硬件资源,研究人员需要在集合了多种不同算力、不同硬件架构AI加速器的计算平台上进行神经网络的模型并行训练,因此,如何高效利用各种AI加速器计算资源,并实现训练任务在多种加速器上的负载均衡,一直是研究人员关心的热点问题。提出了一种面向模型并行训练的模型拆分策略自动生成方法,该方法能够基于静态的网络模型自动生成模型拆分策略,实现网络层在不同AI加速器上的任务分配。基于该方法自动生成的模型分配策略,能够高效利用单个计算平台上的所有计算资源,并保证模型训练任务在各设备之间的负载均衡,与目前使用的人工拆分策略相比,具有更高的时效性,节省拆分策略生成时间100倍以上,且降低了由于人为因素带来的不确定性。 展开更多
关键词 模型并行 模型训练 模型拆分 负载均衡
在线阅读 下载PDF
基于事件图的离散事件仿真模型并行检验方法 被引量:4
4
作者 夏薇 姚益平 +1 位作者 慕晓冬 柳林 《软件学报》 EI CSCD 北大核心 2012年第6期1429-1443,共15页
非形式化仿真模型验证方法易受主观因素的影响且具有不完备性,而传统的形式化模型检验方法由于受到状态空间爆炸问题的影响,很难处理大规模的仿真模型.并行模型检验方法以其完备性、高效性已经在工业界中得到了成功的应用,但是由于涉及... 非形式化仿真模型验证方法易受主观因素的影响且具有不完备性,而传统的形式化模型检验方法由于受到状态空间爆炸问题的影响,很难处理大规模的仿真模型.并行模型检验方法以其完备性、高效性已经在工业界中得到了成功的应用,但是由于涉及到形式化规约、逻辑学以及并行计算等多项技术,应用难度较大.针对上述问题,提出了基于事件图的离散事件仿真模型并行检验方法.该方法首先对事件图在模型同步方面进行了扩展,给出了扩展事件图的形式化定义、语法及语义;然后将扩展事件图模型转换到分布并行验证环境的DVE模型,成功地将并行模型检验方法应用于仿真模型验证领域.该方法使得仿真人员无须学习新的形式化验证语言就能采用并行模型检验方法对仿真模型进行形式化验证,可降低模型并行验证的难度,从而有效提高模型验证的效率和完备性.实验结果表明了该方法的有效性,有利于扩展并行模型检验方法在仿真领域中的应用. 展开更多
关键词 离散事件仿真模型验证 并行模型检验 事件图 DVE建模语言 模型转换
在线阅读 下载PDF
用数据驱动的编程模型并行多重网格应用 被引量:2
5
作者 郭杰 高希然 +2 位作者 陈莉 傅游 刘颖 《计算机科学》 CSCD 北大核心 2020年第8期32-40,共9页
多重网格是数值计算领域中一种加速迭代收敛的重要技术,被广泛应用。近年来,大规模并行计算系统向多核化、异构众核化发展,多重网格应用也亟须适应新的并行计算平台。文中采用一种数据驱动的任务并行语言AceMesh将遗产的NAS MG程序移植... 多重网格是数值计算领域中一种加速迭代收敛的重要技术,被广泛应用。近年来,大规模并行计算系统向多核化、异构众核化发展,多重网格应用也亟须适应新的并行计算平台。文中采用一种数据驱动的任务并行语言AceMesh将遗产的NAS MG程序移植到“天河二号”和“神威·太湖之光”两种不同架构的国产超算平台上,展示了使用该语言对计算循环、通信代码的任务并行方法,验证了AceMesh语言的跨平台性能可移植性。文中定性地分析了该应用的任务图特征和计算-通信重叠的特点,并分别在两个并行计算平台上将其与现有编程模型MPI/OpenMP和MPI/OpenACC进行性能对比,分析了AceMesh任务图并行程序对访存性能和通信-计算重叠的优化效果。实验数据表明,相比传统的并行编程方法,AceMesh在“神威·太湖之光”和“天河二号”平台上分别最高获得了1.19X和1.85X的性能加速。最后,针对该应用在不同网格层的通信特点以及通信序列化导致大量通信不能隐藏的问题,提出了未来的研究方向。 展开更多
关键词 多重网格 MPI遗产应用 数据驱动的任务并行编程模型 异构众核 计算-通信重叠
在线阅读 下载PDF
深度神经网络模型任务切分及并行优化方法 被引量:1
6
作者 巨涛 刘帅 +1 位作者 王志强 李林娟 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第9期2739-2752,共14页
为解决传统手工切分神经网络模型计算任务并行化方法面临的并行化难度大、训练耗时长、设备利用率低等问题,提出了一种基于深度神经网络(DNN)模型特性感知的任务切分及并行优化方法。结合硬件计算环境,对模型计算特性进行动态分析,获取... 为解决传统手工切分神经网络模型计算任务并行化方法面临的并行化难度大、训练耗时长、设备利用率低等问题,提出了一种基于深度神经网络(DNN)模型特性感知的任务切分及并行优化方法。结合硬件计算环境,对模型计算特性进行动态分析,获取模型内部相关性和各类参数属性,构建原始计算任务有向无环图(DAG);利用增强反链,构建DAG节点间可分区聚类的拓扑关系,将原始DAG转换为易于切分的反链DAG;通过拓扑排序生成反链DAG状态序列,并使用动态规划将状态序列切分为不同执行阶段,分析最佳分割点进行模型切分,实现模型分区与各GPU间动态匹配;对批量进行微处理,通过引入流水线并行实现多迭代密集训练,提高GPU利用率,减少训练耗时。实验结果表明:与已有模型切分方法相比,在CIFAR-10数据集上,所提模型切分及并行优化方法可实现各GPU间训练任务负载均衡,在保证模型训练精度的同时,4 GPU加速比达到3.4,8 GPU加速比为3.76。 展开更多
关键词 深度神经网络模型并行 模型切分 流水线并行 反链 并行优化
在线阅读 下载PDF
分层并行计算模型 被引量:9
7
作者 陈国良 苗乾坤 +2 位作者 孙广中 徐云 郑启龙 《中国科学技术大学学报》 CAS CSCD 北大核心 2008年第7期841-847,共7页
传统单一的并行计算模型变得越来越复杂,对并行计算各阶段针对性不强、指导能力差的特点,为此提出了对并行计算模型分层研究的思想,依此把并行计算模型分为并行算法设计模型、并行程序设计模型、并行程序执行模型三个层次,分别给出了各... 传统单一的并行计算模型变得越来越复杂,对并行计算各阶段针对性不强、指导能力差的特点,为此提出了对并行计算模型分层研究的思想,依此把并行计算模型分为并行算法设计模型、并行程序设计模型、并行程序执行模型三个层次,分别给出了各个模型的特点及研究内容.理论分析结果表明,通过分层,每个阶段的模型分工明确,目标单一,指导性强. 展开更多
关键词 分层并行计算模型 并行算法设计模型 并行程序设计模型 并行程序执行模型
在线阅读 下载PDF
MapReduce并行编程模型研究综述 被引量:189
8
作者 李建江 崔健 +2 位作者 王聃 严林 黄义双 《电子学报》 EI CAS CSCD 北大核心 2011年第11期2635-2642,共8页
MapReduce并行编程模型通过定义良好的接口和运行时支持库,能够自动并行执行大规模计算任务,隐藏底层实现细节,降低并行编程的难度.本文对MapReduce的国内外相关研究现状进行了综述,阐述和分析了当前国内外与MapReduce相关的典型研究成... MapReduce并行编程模型通过定义良好的接口和运行时支持库,能够自动并行执行大规模计算任务,隐藏底层实现细节,降低并行编程的难度.本文对MapReduce的国内外相关研究现状进行了综述,阐述和分析了当前国内外与MapReduce相关的典型研究成果的特点和不足,重点对MapReduce涉及的关键技术(包括:模型改进、模型针对不同平台的实现、任务调度、负载均衡和容错)的研究现状进行了深入的分析.本文最后还对MapReduce未来的发展趋势进行了展望. 展开更多
关键词 MAPREDUCE 并行编程模型 运行时支持库 海量数据处理
在线阅读 下载PDF
任务并行编程模型研究与进展 被引量:29
9
作者 王蕾 崔慧敏 +1 位作者 陈莉 冯晓兵 《软件学报》 EI CSCD 北大核心 2013年第1期77-90,共14页
任务并行编程模型是近年来多核平台上广泛研究和使用的并行编程模型,旨在简化并行编程和提高多核利用率.首先,介绍了任务并行编程模型的基本编程接口和支持机制;然后,从3个角度,即并行性表达、数据管理和任务调度介绍任务并行编程模型... 任务并行编程模型是近年来多核平台上广泛研究和使用的并行编程模型,旨在简化并行编程和提高多核利用率.首先,介绍了任务并行编程模型的基本编程接口和支持机制;然后,从3个角度,即并行性表达、数据管理和任务调度介绍任务并行编程模型的研究问题、困难和最新研究成果;最后展望了任务并行未来的研究方向. 展开更多
关键词 任务并行 并行编程模型 任务窃取调度 并行性表达
在线阅读 下载PDF
MapReduce并行编程模型研究综述 被引量:24
10
作者 杜江 张铮 +1 位作者 张杰鑫 邰铭 《计算机科学》 CSCD 北大核心 2015年第S1期537-541 564,564,共6页
MapReduce并行编程模型的出现简化了并行编程的复杂度。通过调用方便的接口和运行时支持库,MapReduce并行编程模型可令大规模并行计算任务自动并发地执行而不必关心底层的具体实现细节,从而令MapReduce并行编程模型在大规模中低性能集... MapReduce并行编程模型的出现简化了并行编程的复杂度。通过调用方便的接口和运行时支持库,MapReduce并行编程模型可令大规模并行计算任务自动并发地执行而不必关心底层的具体实现细节,从而令MapReduce并行编程模型在大规模中低性能集群中发挥出色的计算能力,且可节约成本。对国内外关于MapReduce并行编程模型的研究现状进行了综述,分析了目前国内外相关研究成果的优缺点,并对MapReduce并行编程模型的未来发展进行了展望。 展开更多
关键词 MAPREDUCE 并行编程模型 并行计算 海量数据处理
在线阅读 下载PDF
MapReduce:新型的分布式并行计算编程模型 被引量:113
11
作者 李成华 张新访 +1 位作者 金海 向文 《计算机工程与科学》 CSCD 北大核心 2011年第3期129-135,共7页
MapReduce是Google提出的分布式并行计算编程模型,用于大规模数据的并行处理。Ma-pReduce模型受函数式编程语言的启发,将大规模数据处理作业拆分成若干个可独立运行的Map任务,分配到不同的机器上去执行,生成某种格式的中间文件,再由若干... MapReduce是Google提出的分布式并行计算编程模型,用于大规模数据的并行处理。Ma-pReduce模型受函数式编程语言的启发,将大规模数据处理作业拆分成若干个可独立运行的Map任务,分配到不同的机器上去执行,生成某种格式的中间文件,再由若干个Reduce任务合并这些中间文件获得最后的输出文件。用户在使用MapReduce模型进行大规模数据处理时,可以将主要精力放在如何编写Map和Reduce函数上,其它并行计算中的复杂问题诸如分布式文件系统、工作调度、容错、机器间通信等都交给MapReduce系统处理,在很大程度上降低了整个编程难度。MapReduce日益成为云计算平台的主流编程模型。Apache Hadoop项目提供开源的MapReduce系统还有待进一步完善。 展开更多
关键词 MAPREDUCE 并行计算编程模型 云计算
在线阅读 下载PDF
一种基于并行度分析模型的GPU功耗优化技术 被引量:13
12
作者 林一松 杨学军 +2 位作者 唐滔 王桂彬 徐新海 《计算机学报》 EI CSCD 北大核心 2011年第4期705-716,共12页
随着硬件功能的不断丰富和软件开发环境的逐渐成熟,GPU开始被应用于通用计算领域,协助CPU加速程序的运行.为了追求高性能,GPU往往包含成百上千个核心运算单元.高密度的计算资源,使得其在性能远高于CPU的同时功耗也高于CPU.功耗问题已经... 随着硬件功能的不断丰富和软件开发环境的逐渐成熟,GPU开始被应用于通用计算领域,协助CPU加速程序的运行.为了追求高性能,GPU往往包含成百上千个核心运算单元.高密度的计算资源,使得其在性能远高于CPU的同时功耗也高于CPU.功耗问题已经成为制约GPU发展的重要问题之一.DVFS技术被广泛应用于处理器的低功耗优化,而对GPU进行相应研究的前提是对其程序运行过程进行分析和建模,从而可以根据应用程序的特征来确定优化策略.此外,GPU主要由图形处理器芯片和片外的DRAM组成,有研究指出针对这类系统的功耗优化应当综合考虑处理器和存储器,使二者可以互相协调以达到更好的优化效果.文中在一个已有的基于程序并行度分析的GPU性能模型的基础上,综合考虑计算部件与存储部件的功耗,建立了性能约束条件下的GPU功耗优化模型.对于给定的程序,在满足性能约束的前提下,以功耗最优为目标分别给出处理器和存储器的DVFS优化策略.作者选取了9个测试用例在3种模拟平台上进行了实验验证,结果表明文中的方法可以在满足性能约束条件10%的误差范围内获得最优的GPU能量消耗. 展开更多
关键词 GPU 并行模型 功耗模型 功耗优化
在线阅读 下载PDF
异构并行编程模型研究与进展 被引量:13
13
作者 刘颖 吕方 +3 位作者 王蕾 陈莉 崔慧敏 冯晓兵 《软件学报》 EI CSCD 北大核心 2014年第7期1459-1475,共17页
近年来,异构系统硬件飞速发展.为了解决相应的编程和执行效率问题,异构并行编程模型已被广泛使用和研究.从异构并行编程接口与编译/运行时支持系统两个角度总结了异构并行编程模型最新的研究成果,它们为异构架构和上层应用带来的技术挑... 近年来,异构系统硬件飞速发展.为了解决相应的编程和执行效率问题,异构并行编程模型已被广泛使用和研究.从异构并行编程接口与编译/运行时支持系统两个角度总结了异构并行编程模型最新的研究成果,它们为异构架构和上层应用带来的技术挑战提供了相应的解决方案.最后,结合目前的研究现状以及异构系统的发展,提出了异构并行编程模型的未来方向. 展开更多
关键词 异构并行编程模型 异构系统 GPU 编程接口 编译 运行时系统
在线阅读 下载PDF
一种随机配置网络的模型与数据混合并行学习方法 被引量:16
14
作者 代伟 李德鹏 +1 位作者 杨春雨 马小平 《自动化学报》 EI CAS CSCD 北大核心 2021年第10期2427-2437,共11页
随机配置网络(Stochastic configuration networks,SCNs)在增量构建过程引入监督机制来分配隐含层参数以确保其无限逼近特性,具有易于实现、收敛速度快、泛化性能好等优点.然而,随着数据量的不断扩大,SCNs的建模任务面临一定的挑战性.... 随机配置网络(Stochastic configuration networks,SCNs)在增量构建过程引入监督机制来分配隐含层参数以确保其无限逼近特性,具有易于实现、收敛速度快、泛化性能好等优点.然而,随着数据量的不断扩大,SCNs的建模任务面临一定的挑战性.为了提高神经网络算法在大数据建模中的综合性能,本文提出了一种混合并行随机配置网络(Hybrid parallel stochastic configuration networks,HPSCNs)架构,即:模型与数据混合并行的增量学习方法.所提方法由不同构建方式的左右两个SCNs模型组成,以快速准确地确定最佳隐含层节点,其中左侧采用点增量网络(PSCN),右侧采用块增量网络(BSCN);同时每个模型建立样本数据的动态分块方法,从而加快候选“节点池”的建立、降低计算量.所提方法首先通过大规模基准数据集进行了对比实验,然后应用在一个实际工业案例上,表明其有效性. 展开更多
关键词 增量学习方法 随机配置网络 模型并行 数据并行 大数据建模
在线阅读 下载PDF
DDS并行模型及其形式化 被引量:3
15
作者 刘真环 韦立 +2 位作者 陈艳 赵荣盛 王驹 《软件学报》 EI CSCD 北大核心 2009年第6期1406-1413,共8页
DDS(deadline-driven scheduler)模型是实时系统研究中的一个经典模型,但其原始设置中未提及空间因素.在DDS模型的原始设置上进行扩展,给出了DDS并行模型并在该模型设置下研究带空间限制的任务调度问题.提出了极大空间相容组的概念,并... DDS(deadline-driven scheduler)模型是实时系统研究中的一个经典模型,但其原始设置中未提及空间因素.在DDS模型的原始设置上进行扩展,给出了DDS并行模型并在该模型设置下研究带空间限制的任务调度问题.提出了极大空间相容组的概念,并给出了全局调度算法和该算法可行的条件.最后还引入分离逻辑的思想对时段演算进行扩充,得到了新的形式系统DC*,利用DC*把DDS并行模型形式化. 展开更多
关键词 DDS并行模型 全局调度算法 分离逻辑 时段演算 形式化
在线阅读 下载PDF
并行计算模型GAMMA概述 被引量:4
16
作者 黄林鹏 童维勤 +1 位作者 倪德明 孙永强 《计算机科学》 CSCD 北大核心 1994年第5期20-24,共5页
程序设计中的并行性可以区分为逻辑并行性和物理并行性,前者是一种程序构造工具,它通过任务复合来描述程序;后者涉及实现技术,它关心的是任务如何在处理器集合上的分配。本文将介绍一种新的并行计算摸型GAMMA,其使用多重集转换技术,允... 程序设计中的并行性可以区分为逻辑并行性和物理并行性,前者是一种程序构造工具,它通过任务复合来描述程序;后者涉及实现技术,它关心的是任务如何在处理器集合上的分配。本文将介绍一种新的并行计算摸型GAMMA,其使用多重集转换技术,允许在较高的抽象层次上开发逻辑并行性,已被证明是一种有效的并行程序构造方法。 展开更多
关键词 程序设计 并行计算模型 GAMMA
在线阅读 下载PDF
蚁群算法的三种并行模型分析 被引量:5
17
作者 王磊 曹菡 王长缨 《计算机工程》 CAS CSCD 北大核心 2011年第12期170-172,175,共4页
在单机多核下分别构造基于OpenMP和MPI的并行蚁群算法模型,在多核集群机下构造基于MPI和MPI+OpenMP的并行蚁群算法模型,并提出动态蚁群择优策略及分段周期交流策略。基于实际路网的路径寻优问题对上述模型进行比较,实验结果表明,在单机... 在单机多核下分别构造基于OpenMP和MPI的并行蚁群算法模型,在多核集群机下构造基于MPI和MPI+OpenMP的并行蚁群算法模型,并提出动态蚁群择优策略及分段周期交流策略。基于实际路网的路径寻优问题对上述模型进行比较,实验结果表明,在单机多核下,基于MPI的模型与基于OpenMP的模型相比,运行时间短,加速比高,在多核集群机下,基于MPI+OpenMP的混合模型相比基于MPI的模型,在进程数较多时仍具有较高的加速比。 展开更多
关键词 蚁群算法 多核 集群机 并行模型 信息交流策略
在线阅读 下载PDF
多核处理器机群Memory层次化并行计算模型研究 被引量:17
18
作者 涂碧波 邹铭 +2 位作者 詹剑锋 赵晓芳 樊建平 《计算机学报》 EI CSCD 北大核心 2008年第11期1948-1955,共8页
多核处理器机群点对点通信同时具有memory纵向层次化特征和横向层次化的新特征.纵向层次化特征揭示了对不同大小和步长的消息进行点对点通信时消息通信中间件对其性能的影响;横向层次化的新特征由intra-CMPi、nter-CMP和inter-node消息... 多核处理器机群点对点通信同时具有memory纵向层次化特征和横向层次化的新特征.纵向层次化特征揭示了对不同大小和步长的消息进行点对点通信时消息通信中间件对其性能的影响;横向层次化的新特征由intra-CMPi、nter-CMP和inter-node消息通信性能的显著差异引起,目前缺少有效的分析模型.文中提出一种新的memory层次化并行计算模型,对多核处理器机群memory横向、纵向层次化特征进行了统一的抽象.在对多核处理器机群点对点通信和集合通信的开销进行模型分析和实际测试中,新模型的精确性优于现有的未引入memory横向层次化特征的模型. 展开更多
关键词 多核处理器机群 memory层次化 并行计算模型 MPI 多核意识
在线阅读 下载PDF
一种支持多种访存技术的CBEA片上多核MPI并行编程模型 被引量:6
19
作者 冯国富 董小社 +2 位作者 胡冰 王旭昊 王恩东 《计算机学报》 EI CSCD 北大核心 2008年第11期1965-1974,共10页
现有的CBEA(Cell Broadband Engine Architecture)编程模型多侧重于支持类似于流处理的“批量访存”(Bulk Data Transfer)应用,传统非规则访存应用性能较低.文中基于Cell架构提出了一种同时支持“批量访存”与非规则访存应用的MPI... 现有的CBEA(Cell Broadband Engine Architecture)编程模型多侧重于支持类似于流处理的“批量访存”(Bulk Data Transfer)应用,传统非规则访存应用性能较低.文中基于Cell架构提出了一种同时支持“批量访存”与非规则访存应用的MPI并行编程模型,将通信分解在PPE(PowerPC Processing Element)上,拓宽模型的适用范围;在统一访存接口下,通过运行时访存剖分信息指导选择和优化访存以提高计算效率.实验结果表明,文中提出的编程模型支持多种访存模式并具有很好的并行加速比,可获得较同类相关技术30%-50%左右的性能提升. 展开更多
关键词 异构多核 CBE架构 并行编程模型 MPI 访存技术 剖分优化
在线阅读 下载PDF
基于并行点火PCNN模型的图像分割新方法 被引量:23
20
作者 彭真明 蒋彪 +1 位作者 肖峻 孟凡斌 《自动化学报》 EI CSCD 北大核心 2008年第9期1169-1173,共5页
提出一种并行点火脉冲耦合神经网络(Parallelized firing pulse coupled neural networks,PFPCNN)模型的图像分割方法.首先用改进的Unit—linking PCNN(ULPCNN)模型对图像进行增强,便于后续的图像分割.然后采用PFPCNN新模型对增强后的... 提出一种并行点火脉冲耦合神经网络(Parallelized firing pulse coupled neural networks,PFPCNN)模型的图像分割方法.首先用改进的Unit—linking PCNN(ULPCNN)模型对图像进行增强,便于后续的图像分割.然后采用PFPCNN新模型对增强后的图像进行分割,最后用最大香农熵方法判定最佳分割结果.各种复杂场景下的仿真实验及定量评价表明,本文提出的图像分割方法,其效果明显优于常规的PCNN分割方法。 展开更多
关键词 脉冲耦合神经网络 并行点火模型 图像增强 最大香农熵 图像分割
在线阅读 下载PDF
上一页 1 2 11 下一页 到第
使用帮助 返回顶部