期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
含预应力服务器机箱结构动态数值模拟分析 被引量:1
1
作者 龚宝龙 《现代制造工程》 CSCD 北大核心 2017年第3期101-105,121,共6页
利用有限元模拟仿真技术,采用Static Structural、Modal及Harmonic Response模块,对含预应力状态下的服务器机箱结构进行动态数值模拟分析,其中包含模态分析及谐响应分析,得出服务器机箱的固有频率及振型、风扇振动引起谐响应规律,并对... 利用有限元模拟仿真技术,采用Static Structural、Modal及Harmonic Response模块,对含预应力状态下的服务器机箱结构进行动态数值模拟分析,其中包含模态分析及谐响应分析,得出服务器机箱的固有频率及振型、风扇振动引起谐响应规律,并对含预应力及不含预应力的模态结果进行对比分析。研究结果表明,第2阶模态90Hz附近的振型以底座后部振动为主,易引起主板的损坏;含预应力及不含预应力状态下的机箱结构固有频率差值很小,故在服务器模态分析中,可通过取消预应力的设定来简化模态分析过程;风扇作为振动源产生的机箱谐响应振动,最大振幅在90Hz附近,位于机箱底座后部。 展开更多
关键词 服务器机箱 模态分析 谐响应 数值模拟 动态分析
在线阅读 下载PDF
深度学习编译器模型训练负载均衡优化方法 被引量:4
2
作者 王丽 高开 +3 位作者 赵雅倩 李仁刚 曹芳 郭振华 《计算机科学与探索》 CSCD 北大核心 2024年第1期111-126,共16页
对于计算密集型的人工智能(AI)训练应用,其计算图网络结构更加复杂,数据加载、计算图的任务划分以及任务调度的负载均衡性都会成为影响计算性能的关键因素。为了使深度学习编译器中模型训练应用的任务调度达到负载均衡的状态,提出了三... 对于计算密集型的人工智能(AI)训练应用,其计算图网络结构更加复杂,数据加载、计算图的任务划分以及任务调度的负载均衡性都会成为影响计算性能的关键因素。为了使深度学习编译器中模型训练应用的任务调度达到负载均衡的状态,提出了三种计算图负载均衡优化方法:第一,通过自动建立数据加载与模型训练的高效流水实现中央处理器和后端计算设备的负载均衡,提高了系统整体能效;第二,通过计算图的分层优化技术,实现计算图在后端设备执行调度时的负载均衡;最后,通过自动建立层间的高效流水提高后端设备的资源利用率。实验结果表明,计算图负载均衡优化方法实现了训练任务到底层硬件设备自动映射过程中系统的负载均衡,与Tensorflow、nGraph等传统的深度学习框架和编译器相比,在不同模型训练中通过任务调度负载均衡优化技术分别获得了2%~10%的性能提升,同时能够使系统整体的能耗降低10%以上。 展开更多
关键词 模型训练 编译器优化 负载均衡 分层调度 自动流水
在线阅读 下载PDF
面向混合异构架构的模型并行训练优化方法 被引量:2
3
作者 高开 郭振华 +3 位作者 陈永芳 王丽 赵雅倩 赵坤 《计算机工程与科学》 CSCD 北大核心 2021年第1期42-48,共7页
随着混合异构平台的发展,出现了类型不一的加速设备,如何在混合异构平台中充分利用这些不同类型的设备,以及如何在多个计算设备之间部署深度学习模型,而且训练大型和复杂模型的重要性不断提高。数据并行(DP)是应用最广泛的并行化策略,... 随着混合异构平台的发展,出现了类型不一的加速设备,如何在混合异构平台中充分利用这些不同类型的设备,以及如何在多个计算设备之间部署深度学习模型,而且训练大型和复杂模型的重要性不断提高。数据并行(DP)是应用最广泛的并行化策略,但是如果数据并行训练中的设备数量不断增加,设备之间的通信开销就会成为瓶颈。此外,每个步骤因设备性能差异处理的批总量不同会导致精度损失,即需要更长的训练周期以收敛到期望的精度。这些因素会影响整体训练时间,并且会影响某些设备的运行效率。除了数据并行(DP),每个训练步骤都可以通过模型并行(MP)来加速。提出了一种适合混合异构平台的模型并行训练优化算法。首先,为解决混合异构平台中设备性能分布不均问题,提出了层级并行和通道并行混合的模型并行划分策略,同时通过合并一些性能偏低的设备来减少流水线的长度和缓解通信压力。然后为了优化设备间的流水效果,通过分析流水线建立时间占比和设备性能利用率对整体训练时间的影响,提出了一种可以使两者达到均衡状态的微批次划分方法。实验表明,通过本文方法优化之后的模型并行流水训练算法比传统的模型并行算法具有更好的加速比,在单一类型设备的异构平台上的训练性能加速比提升4%左右,在混合异构平台的训练性能加速比要比没有使用优化方法之前提升7%左右。 展开更多
关键词 混合异构 模型并行 微批次 设备差异
在线阅读 下载PDF
面向模型并行训练的模型拆分策略自动生成方法 被引量:1
4
作者 王丽 郭振华 +3 位作者 曹芳 高开 赵雅倩 赵坤 《计算机工程与科学》 CSCD 北大核心 2020年第9期1529-1537,共9页
随着训练数据规模的增大以及训练模型的日趋复杂,深度神经网络的训练成本越来越高,对计算平台提出了更高的算力需求,模型训练并行化成为增强其应用时效性的迫切需求。近年来基于分布式训练的AI加速器(如FPGA、TPU、AI芯片等)层出不穷,... 随着训练数据规模的增大以及训练模型的日趋复杂,深度神经网络的训练成本越来越高,对计算平台提出了更高的算力需求,模型训练并行化成为增强其应用时效性的迫切需求。近年来基于分布式训练的AI加速器(如FPGA、TPU、AI芯片等)层出不穷,为深度神经网络并行训练提供了硬件基础。为了充分利用各种硬件资源,研究人员需要在集合了多种不同算力、不同硬件架构AI加速器的计算平台上进行神经网络的模型并行训练,因此,如何高效利用各种AI加速器计算资源,并实现训练任务在多种加速器上的负载均衡,一直是研究人员关心的热点问题。提出了一种面向模型并行训练的模型拆分策略自动生成方法,该方法能够基于静态的网络模型自动生成模型拆分策略,实现网络层在不同AI加速器上的任务分配。基于该方法自动生成的模型分配策略,能够高效利用单个计算平台上的所有计算资源,并保证模型训练任务在各设备之间的负载均衡,与目前使用的人工拆分策略相比,具有更高的时效性,节省拆分策略生成时间100倍以上,且降低了由于人为因素带来的不确定性。 展开更多
关键词 模型并行 模型训练 模型拆分 负载均衡
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部