期刊文献+
共找到41篇文章
< 1 2 3 >
每页显示 20 50 100
基于MPI的黄河下游二维水沙数学模型并行计算研究 被引量:9
1
作者 余欣 杨明 +2 位作者 王敏 姜恺 袁俊 《人民黄河》 CAS 北大核心 2005年第3期49-50,53,共3页
基于MPI的消息传递实现了黄河二维水沙数学模型的并行编程。以数据的分布存储作为区域划分的依据,实现了计算量的负载平衡;在全局网格和局部区域之间建立映射关系,并且在临界单元、进出口单元、共用节点通过规约等进行特殊处理,一方面... 基于MPI的消息传递实现了黄河二维水沙数学模型的并行编程。以数据的分布存储作为区域划分的依据,实现了计算量的负载平衡;在全局网格和局部区域之间建立映射关系,并且在临界单元、进出口单元、共用节点通过规约等进行特殊处理,一方面尽可能减少了通讯量,另一方面也避免了消息的阻塞。采用曙光4000A并行计算系统的8个CPU进行计算的加速比达0. 8,同时,多CPU并行计算极大地提高了计算任务的容量,使得无法在单机上完成的巨量计算成为可能。 展开更多
关键词 并行计算 通讯 规约 加速比 mpi 水沙数学模型 黄河下游
在线阅读 下载PDF
OpenMP在水动力数学模型并行计算中的应用 被引量:4
2
作者 李褆来 徐学军 +2 位作者 陈黎明 金秋 张铁军 《海洋工程》 CSCD 北大核心 2010年第3期112-116,122,共6页
采用PGI Fortran7.1-2(Portland Group)的OpenMP技术对二维水动力数学模型进行了并行优化试验。并行后,数学模型运行时间明显减少,在对同一算例的水流计算模拟中,串行和并行所需运行时间分别为5 336.781 s和3 454.296 s,平均加速比为1.... 采用PGI Fortran7.1-2(Portland Group)的OpenMP技术对二维水动力数学模型进行了并行优化试验。并行后,数学模型运行时间明显减少,在对同一算例的水流计算模拟中,串行和并行所需运行时间分别为5 336.781 s和3 454.296 s,平均加速比为1.56,平均并行计算节省时间36%,明显提高了水动力学数学模型的运算速度。 展开更多
关键词 openmp 并行计算 水动力学 数学模型 加速比
在线阅读 下载PDF
平面二维非均匀泥沙OpenMP并行计算模型 被引量:2
3
作者 于守兵 《水利水电科技进展》 CSCD 北大核心 2012年第2期11-14,共4页
为实现平面二维非均匀泥沙模型并行计算,采用OpenMP指令对串行源程序进行改造。基于三角形-四边形混合网格的平面二维非均匀泥沙有限体积模型具有显式求解时网格单元相互独立性这种特性,Fortran串行源程序无需进行较大的修改,只要在循... 为实现平面二维非均匀泥沙模型并行计算,采用OpenMP指令对串行源程序进行改造。基于三角形-四边形混合网格的平面二维非均匀泥沙有限体积模型具有显式求解时网格单元相互独立性这种特性,Fortran串行源程序无需进行较大的修改,只要在循环计算和数组整体操作部分嵌入OpenMP循环并行指令和数组并行指令,即可实现并行计算。案例分析结果表明,在并行线程数目等于计算机固有线程数目时,并行加速比达到最大值1.55;OpenMP技术使用线程间共享内存的方式协调并行计算,很适合在多核计算机上运行,且编程简单灵活,将随着计算机硬件性能的提高得到更广泛的应用。 展开更多
关键词 openmp 并行计算 非均匀泥沙模型 有限体积法
在线阅读 下载PDF
基于MPI的分布式水循环模型并行计算性能研究 被引量:3
4
作者 向东 周祖昊 +3 位作者 袁胜 秦泽宁 刘佳嘉 朱家松 《水文》 CSCD 北大核心 2020年第5期36-40,27,共6页
为满足分布式水文模型快速模拟的需要,引入并行计算技术。基于MPI编程模型实现了WEP-L分布式水循环模型产流模块的并行编程,采取子流域任务划分和对等模式实现了模型的并行设计。为了减少进程间的通信时间,在产流计算之前,数据按随年、... 为满足分布式水文模型快速模拟的需要,引入并行计算技术。基于MPI编程模型实现了WEP-L分布式水循环模型产流模块的并行编程,采取子流域任务划分和对等模式实现了模型的并行设计。为了减少进程间的通信时间,在产流计算之前,数据按随年、月、日变化以及不随时间变化分成四类,分批进行通信;产流计算完成之后,采用聚合通信方式中的数据收集,快速统计结果。模型并行化后应用于黄河流域,结果如下:(1)随着参与计算的进程数增加,并行计算的加速比呈先增加后减少的趋势,并行效率随进程数增加呈线性下降趋势。(2)模型并行性能受通信开销制约,当通信开销增量大于产流计算时间减少量时,加速比达到峰值4.8。 展开更多
关键词 分布式水循环模型 mpi 并行计算 加速比 并行效率
在线阅读 下载PDF
多核处理器机群Memory层次化并行计算模型研究 被引量:17
5
作者 涂碧波 邹铭 +2 位作者 詹剑锋 赵晓芳 樊建平 《计算机学报》 EI CSCD 北大核心 2008年第11期1948-1955,共8页
多核处理器机群点对点通信同时具有memory纵向层次化特征和横向层次化的新特征.纵向层次化特征揭示了对不同大小和步长的消息进行点对点通信时消息通信中间件对其性能的影响;横向层次化的新特征由intra-CMPi、nter-CMP和inter-node消息... 多核处理器机群点对点通信同时具有memory纵向层次化特征和横向层次化的新特征.纵向层次化特征揭示了对不同大小和步长的消息进行点对点通信时消息通信中间件对其性能的影响;横向层次化的新特征由intra-CMPi、nter-CMP和inter-node消息通信性能的显著差异引起,目前缺少有效的分析模型.文中提出一种新的memory层次化并行计算模型,对多核处理器机群memory横向、纵向层次化特征进行了统一的抽象.在对多核处理器机群点对点通信和集合通信的开销进行模型分析和实际测试中,新模型的精确性优于现有的未引入memory横向层次化特征的模型. 展开更多
关键词 多核处理器机群 memory层次化 并行计算模型 mpi 多核意识
在线阅读 下载PDF
小浪底水库三维数学模型并行计算研究 被引量:5
6
作者 王敏 王明 杨明 《人民黄河》 CAS 北大核心 2012年第5期25-27,共3页
基于MPI消息传递实现了小浪底水库三维数学模型的并行编程,采取网格分区和主从模式实现了并行计算,在全局网格和局部区域之间建立了映射关系,并对临界单元和进出口单元等特殊点进行了处理。结果表明:神威-SZNM集群的8CPU并行计算的加速... 基于MPI消息传递实现了小浪底水库三维数学模型的并行编程,采取网格分区和主从模式实现了并行计算,在全局网格和局部区域之间建立了映射关系,并对临界单元和进出口单元等特殊点进行了处理。结果表明:神威-SZNM集群的8CPU并行计算的加速比为5.2,远高于原串行程序在Windows操作系统下采用CVF编译器编译执行的计算速度,极大地缩短了计算时间,提高了计算准确度。 展开更多
关键词 METIS mpi 并行计算 三维数学模型 小浪底水库
在线阅读 下载PDF
基于节点间断有限元的三维并行水动力模型研究
7
作者 陈泽礽 张庆河 冉国全 《哈尔滨工程大学学报》 北大核心 2025年第9期1719-1727,共9页
针对现有Matlab-C混编模式下无积分节点间断有限元水动力模型计算效率较低的问题,本文使用C++代码框架下重新建立三维水动力模型。模型对封闭港池风吹流和渤海辽东湾锦州港附近海域潮流进行模拟,模拟结果分别与理论解和实测数据吻合较... 针对现有Matlab-C混编模式下无积分节点间断有限元水动力模型计算效率较低的问题,本文使用C++代码框架下重新建立三维水动力模型。模型对封闭港池风吹流和渤海辽东湾锦州港附近海域潮流进行模拟,模拟结果分别与理论解和实测数据吻合较好。基于OpenMP与MPI并行算法分别实现三维水动力模型并行计算,计算结果表明:在计算网格数量较多时,MPI并行计算效率高于OpenMP并行;在计算网格数量较少时,MPI并行模型对网格的划分存在限制,而OpenMP并行模型能充分利用计算核心,减少更多的计算时间。 展开更多
关键词 节点间断有限元方法 三维浅水方程 openmp并行 mpi并行 数值模型 非结构网格 内外模不分离 潮流模拟
在线阅读 下载PDF
一种实用的并行计算模型 被引量:16
8
作者 计永昶 丁卫群 +1 位作者 陈国良 安虹 《计算机学报》 EI CSCD 北大核心 2001年第4期437-441,共5页
对于当前流行的工作站集群环境和各类并行机系统 ,文中提出了一种实用的并行计算模型 ,即基于L og GP的非独占异质同步模型 NHBL(Nondedicated Heterogeneous Barrier L og GP) ,它旨在反映具有异质性和非独占性的 NOW计算环境对并行算... 对于当前流行的工作站集群环境和各类并行机系统 ,文中提出了一种实用的并行计算模型 ,即基于L og GP的非独占异质同步模型 NHBL(Nondedicated Heterogeneous Barrier L og GP) ,它旨在反映具有异质性和非独占性的 NOW计算环境对并行算法设计和分析的影响 ,然后用 NHBL 模型分析了 PSRS算法在国家高性能计算中心 (合肥 )的工作站集群 NHPCC- Cluster和曙光 - 10 0 0 MPP上的代价 ,并用实测结果进行了验证 . 展开更多
关键词 工作站集群 并行计算模型 PSRS算法 MPP mpi
在线阅读 下载PDF
MPI环境下气固两相流动的并行计算
9
作者 符栋良 《锅炉技术》 北大核心 2007年第2期48-52,72,共6页
采用Fortran语言自行开发的程序,在非正交贴体坐标系下,采用k--εAp模型。模型的两相湍流模型对一新型燃烧器一次风喷嘴及弯头组件内的气固两相流动进行了数值模拟。在求解过程中,将整个几何区域分解成若干相对简单的子区域,然后分别在... 采用Fortran语言自行开发的程序,在非正交贴体坐标系下,采用k--εAp模型。模型的两相湍流模型对一新型燃烧器一次风喷嘴及弯头组件内的气固两相流动进行了数值模拟。在求解过程中,将整个几何区域分解成若干相对简单的子区域,然后分别在各子域上采用SIMPLEC算法对控制方程组进行离散多机并行求解。最后本文分析了计算机集群在数值求解复杂流动问题方面的实用性以及实际所能达到的计算效率。 展开更多
关键词 并行计算 区域分解法 mpi 气固两相流 k-ε-Ap模型
在线阅读 下载PDF
分布式水文模型区域分解并行计算方法及其应用 被引量:4
10
作者 秦泽宁 黎曙 +4 位作者 周祖昊 刘明堂 牟舵 刘佳嘉 向东 《水电能源科学》 北大核心 2020年第10期1-4,12,共5页
针对区域分解并行计算方法中存在任务分配负载不均衡、通信时间长的问题,采用OpenMP编程模型,以WEP-L分布式水文模型汇流过程为例,设计了区域分解并行方法,首先通过子流域拓扑关系表确定子流域属于干流或支流,然后将每一条支流划分为一... 针对区域分解并行计算方法中存在任务分配负载不均衡、通信时间长的问题,采用OpenMP编程模型,以WEP-L分布式水文模型汇流过程为例,设计了区域分解并行方法,首先通过子流域拓扑关系表确定子流域属于干流或支流,然后将每一条支流划分为一个水文区域,并保证水文区域中子流域按上游到下游的顺序排序,同时,为了实现分配的负载均衡,设计了基于贪心算法的优化调度,最后将支流任务分配给不同的线程计算,干流子流域采用串行计算。对黄河流域在不同线程条件下并行效果的测试结果表明,基于贪心调度的区域分解并行计算方法能有效提高汇流过程运算效率。 展开更多
关键词 分布式水文模型 汇流过程 区域分解 并行计算 WEP-L openmp
在线阅读 下载PDF
分布式水文模型时空离散化并行计算方法研究 被引量:4
11
作者 秦泽宁 周祖昊 +2 位作者 刘明堂 向东 刘佳嘉 《人民黄河》 CAS 北大核心 2020年第8期15-20,共6页
时空离散化并行计算是一种效率较高的并行计算方法,但以往的研究主要基于MPI框架和多树编码规则。为了使应用广泛的Pfafstetter编码的分布式水文模型实现时空并行计算,采用OpenMP编程模型,为WEP⁃L分布式水文模型汇流过程设计了基于Pfafs... 时空离散化并行计算是一种效率较高的并行计算方法,但以往的研究主要基于MPI框架和多树编码规则。为了使应用广泛的Pfafstetter编码的分布式水文模型实现时空并行计算,采用OpenMP编程模型,为WEP⁃L分布式水文模型汇流过程设计了基于Pfafstetter编码的分层模拟单元方法和时空离散化方法。首先分层模拟单元方法根据Pfafstetter编码规则建立子流域拓扑表,使子流域按照从上游到下游的顺序进行分层,然后在此基础上考虑时间因素重新分层实现时空离散化,最后将同一层中时间及空间上互不影响的子流域模拟任务分配给不同的线程实现并行计算。选取黄河流域作为研究区域,在不同线程条件下对并行效果进行了测试,结果表明,汇流并行化提高了模型模拟效率。基于20核的CPU,仅考虑分层模拟单元方法时,加速比最大为4.14,而采用时空离散化方法时,加速比能够达到8.17。 展开更多
关键词 openmp Pfafstetter 时空离散化 并行计算 WEP⁃L 分布式水文模型
在线阅读 下载PDF
云计算中的并行计算技术分析 被引量:8
12
作者 郑文武 李先绪 黄执勤 《电信科学》 北大核心 2011年第12期31-38,共8页
本文阐述了并行计算和云计算的关系,简要回顾并行计算的历史,分析了并行计算的重要技术OpenMP、MPI和Erlang,研究了这些技术在中国电信的应用方法,并介绍了中国电信实施云计算、并行计算的指导思想、原则和策略。
关键词 并行计算 openmp mpi ERLANG
在线阅读 下载PDF
多核环境下AREM模式混合并行计算研究 被引量:2
13
作者 赵军 吴建平 +1 位作者 宋君强 辜旭赞 《计算机工程与应用》 CSCD 北大核心 2011年第21期61-63,76,共4页
使用多核处理器已成为构建高性能计算机系统的主流方式。结合多核高性能计算机系统集共享内存结构和分布式内存结构于一体的体系结构特点,对AREM模式开展MPI/OpenMP混合并行计算研究与实现。性能测试结果表明,使用MPI/OpenMP混合并行计... 使用多核处理器已成为构建高性能计算机系统的主流方式。结合多核高性能计算机系统集共享内存结构和分布式内存结构于一体的体系结构特点,对AREM模式开展MPI/OpenMP混合并行计算研究与实现。性能测试结果表明,使用MPI/OpenMP混合并行计算可以将并行应用扩展至更大处理机规模,缩短计算时间,不对原程序结构做大的改动、以增量方式和较小的并行化代价,取得比较好的并行计算效果。 展开更多
关键词 先进区域eta(AREM)模式 mpi openmp 并行计算
在线阅读 下载PDF
多群粒子输运问题在多核集群系统上的混合并行计算
14
作者 迟利华 刘杰 +3 位作者 龚春叶 徐涵 蒋杰 胡庆丰 《计算机工程与科学》 CSCD 北大核心 2009年第11期94-97,共4页
本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个O... 本文分析了非结构网格多群粒子输运Sn方程求解的并行性,拟合多核机群系统的特点,设计了MPI/OpenMP混合程序,针对空间网格点采用区域分解划分,计算结点间基于消息传递MPI编程,每个MPI计算进程在计算过程中碰到关于能群的计算,就生成多个OpenMP线程,计算结点内针对能群进行多线程并行计算。数值测试结果表明,非结构网格上的粒子输运问题的混合并行计算能较好地匹配多核机群系统的硬件结构,具有良好的可扩展性,可以扩展到1024个CPU核。 展开更多
关键词 mpi/openmp混合并行计算 粒子输运 Sn方法 多核机群系统
在线阅读 下载PDF
非线性扩散方程的显式并行计算
15
作者 迟利华 刘杰 《计算机工程》 CAS CSCD 北大核心 2010年第21期25-27,共3页
在分布共享的多核集群系统中,提出一种求解非线性扩散方程的显式数据分布OpenMP并行计算方法。将数据进行分布式划分后分配到每个OpenMP线程,通过数据拷贝实现同步计算,并设计全局归约算法减少障碍同步次数。性能分析和测试结果表明,该... 在分布共享的多核集群系统中,提出一种求解非线性扩散方程的显式数据分布OpenMP并行计算方法。将数据进行分布式划分后分配到每个OpenMP线程,通过数据拷贝实现同步计算,并设计全局归约算法减少障碍同步次数。性能分析和测试结果表明,该方法在4核Xeon处理器构成的分布共享集群系统上可扩展到1024个CPU核,相对于64个CPU核,其加速比为7.06。 展开更多
关键词 openmp编程模型 多核集群系统 非线性扩散方程 并行计算
在线阅读 下载PDF
共享存储环境下非平衡动力学方程组并行计算
16
作者 迟利华 刘杰 《计算机应用》 CSCD 北大核心 2010年第A01期237-240,共4页
OpenMP是现代多核机群系统采用的主要并行编程模型之一,在单CPU多核上可以获得良好的加速性能,但在整个机群系统上使用时,需要解决可扩展性差的问题。首先设计了求解非平衡动力学方程的并行算法。基于分布共享的多核机群系统,采用显式... OpenMP是现代多核机群系统采用的主要并行编程模型之一,在单CPU多核上可以获得良好的加速性能,但在整个机群系统上使用时,需要解决可扩展性差的问题。首先设计了求解非平衡动力学方程的并行算法。基于分布共享的多核机群系统,采用显式数据分布OpenMP并行计算方法,将数据进行分布式划分,分配到每个OpenMP线程,通过数据共享实现数据交换。计算结果表明显式OpenMP并行程序在保持可读性的同时,具有良好的可扩展性,在4核Xeon处理器构成的分布共享机群系统上,非平衡动力学方程组的数值并行计算可以扩展到1 024个CPU核,具有明显的并行加速计算效果。 展开更多
关键词 openmp编程模型 多核机群系统 非平衡动力学方程组 并行计算
在线阅读 下载PDF
基于MPI/OPENMP混合编程的三维粒子模拟并行优化 被引量:3
17
作者 颜小洋 张伟文 +1 位作者 布社辉 邓辉舫 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 2012年第4期71-78,共8页
针对MPI、OPENMP并行程序各自存在的缺陷,将MPI与OPENMP结合起来,实现了MPI/OPENMP混合并行编程;通过实验对MPI、OPENMP并行程序及MPI/OPENMP混合并行编程进行了分析.实验结果表明:MPI/OPENMP混合并行编程可以大大减少通信量,其效率和... 针对MPI、OPENMP并行程序各自存在的缺陷,将MPI与OPENMP结合起来,实现了MPI/OPENMP混合并行编程;通过实验对MPI、OPENMP并行程序及MPI/OPENMP混合并行编程进行了分析.实验结果表明:MPI/OPENMP混合并行编程可以大大减少通信量,其效率和加速比均优于纯MPI并行程序,克服了MPI并行程序中因粒子分布不均匀使负载不均衡而导致的程序性能下降的问题,使得可以利用集群中的更多结点来进行计算,缓解了MPI并行程序的通信延迟问题;同时,MPI/OPENMP混合并行编程克服了OPENMP并行程序依赖于单台计算机处理能力和存储空间的问题,大幅度提高了模拟规模. 展开更多
关键词 mpi并行程序 openmp并行程序 3DEMPM 并行计算
在线阅读 下载PDF
基于OpenMP多核并行算法的垂线偏差快速计算 被引量:4
18
作者 黄炎 王庆宾 +1 位作者 冯进凯 谭勖立 《大地测量与地球动力学》 CSCD 北大核心 2019年第10期1033-1036,共4页
针对利用超高阶地球重力场模型计算大范围、高分辨率区域垂线偏差效率低的问题,提出基于OpenMP多核并行技术的数组升维和分区计算方法。实验表明,该方法计算垂线偏差的加速比最高达到5.6倍,显著提高了超高阶垂线偏差的计算效率,也为解... 针对利用超高阶地球重力场模型计算大范围、高分辨率区域垂线偏差效率低的问题,提出基于OpenMP多核并行技术的数组升维和分区计算方法。实验表明,该方法计算垂线偏差的加速比最高达到5.6倍,显著提高了超高阶垂线偏差的计算效率,也为解决重力场数据处理过程中类似的快速计算问题提供了思路。 展开更多
关键词 openmp 超高阶重力场模型 垂线偏差 并行计算 数组升维
在线阅读 下载PDF
适用于任意网格的大规模并行CFD计算框架PHengLEI 被引量:32
19
作者 赵钟 张来平 +3 位作者 何磊 何先耀 郭永恒 徐庆新 《计算机学报》 EI CSCD 北大核心 2019年第11期2368-2383,共16页
针对计算流体力学(Computational Fluid Dynamics,CFD)大规模并行计算的需要,我们设计了适用于任意网格类型的并行计算框架风雷(PHengLEI)软件,同时支持结构网格、非结构网格和重叠网格.为了实现并行通信与网格类型无关且与物理求解器... 针对计算流体力学(Computational Fluid Dynamics,CFD)大规模并行计算的需要,我们设计了适用于任意网格类型的并行计算框架风雷(PHengLEI)软件,同时支持结构网格、非结构网格和重叠网格.为了实现并行通信与网格类型无关且与物理求解器开发者隔离,我们设计了通用的通信模式和一种基于网格块的“三合一”的数据交换模式,即将多块结构网格块、并行分区网格块和结构/非结构网格块间的交界面数据完全标准化为数据底层后,在数据底层统一进行交换,使得数据交换不依赖于网格类型和数据类型,从而实现任意网格类型并行通信模式的统一.作为气动数据生产的“数值风洞”,要求代码将并行隔离至底层,为此针对主流计算机系统的特点,设计了粗粒度MPI/OpenMP混合并行模式,领域专家只需关注求解器开发而无需关注并行通信,在提高可移植性、可扩展性的同时尽可能兼顾封装性.针对大规模并行计算的实际工程需求,设计了并行分区、大规模并行文件存储模式,以缩短前置处理和文件I/O时间.最后,分别基于结构网格、非结构网格和重叠网格,给出了工程应用领域的标模算例,以说明PHengLEI并行计算框架对不同网格类型的适应性.大规模网格测试结果表明,国产定制集群上16.38万核并行效率达83%以上,“天河二号”上近10万核并行效率达95%以上,展现了较好的可扩展性和并行计算效率. 展开更多
关键词 并行计算 mpi/openmp混合并行 CFD并行计算框架 PHengLEI 风雷软件 HyperFLOW
在线阅读 下载PDF
基于MPI+OpenMP的三维声波方程正演模拟 被引量:5
20
作者 宋鹏 解闯 +3 位作者 李金山 谭军 刘伟 谭惠文 《中国海洋大学学报(自然科学版)》 CAS CSCD 北大核心 2015年第9期97-102,129,共7页
针对三维声波方程数值模拟的大计算量和大内存消耗问题,研究并实现了基于MPI+OpenMP的三维声波方程数值模拟并行算法,在PC-Cluster的计算节点间采用基于MPI的按炮分任务的多进程并行模式,在计算节点内采用基于OpenMP的按空间分任务的多... 针对三维声波方程数值模拟的大计算量和大内存消耗问题,研究并实现了基于MPI+OpenMP的三维声波方程数值模拟并行算法,在PC-Cluster的计算节点间采用基于MPI的按炮分任务的多进程并行模式,在计算节点内采用基于OpenMP的按空间分任务的多线程并行模式,以有效地利用计算和存储资源。3D-Overthrust模型的实验结果显示,基于MPI+OpenMP的三维声波方程数值模拟并行算法的计算效率与基于MPI的按炮分任务并行计算模式相当,但其内存消耗远远低于后者,其更适合于基于大模型或实际模型的三维模拟。 展开更多
关键词 三维声波方程 正演模拟 并行计算 mpi+openmp
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部