期刊文献+
共找到284篇文章
< 1 2 15 >
每页显示 20 50 100
基于转置Transformer模型的电化学储能自适应SOH估计方法
1
作者 李鹏 葛儒哲 +3 位作者 董存 孙树敏 张元欣 王士柏 《高电压技术》 北大核心 2025年第6期2945-2953,I0015,共10页
为了保障锂离子电池运行的可靠性和安全性,及时监测其健康状况,在Autoformer模型和iTransformer模型的基础上,结合线性回归模型,提出了一种基于转置Transformer的自适应特征感知电池健康状态融合估计模型。首先,从充电曲线中提取健康因... 为了保障锂离子电池运行的可靠性和安全性,及时监测其健康状况,在Autoformer模型和iTransformer模型的基础上,结合线性回归模型,提出了一种基于转置Transformer的自适应特征感知电池健康状态融合估计模型。首先,从充电曲线中提取健康因子。其次,将容量退化分解为退化趋势部分和容量再生部分,利用线性回归模型预测电池容量的退化趋势,利用转置Transformer模型估计电池容量再生部分,两部分组合以获得电池容量退化的估计结果。最后,利用注意力权重对模型赋予可解释性。研究结果表明:此方法在NASA锂电池老化数据集上的仿真实验中,预测误差明显小于其他时序预测模型,验证了所提方法的预测精确性与可靠性。论文为电池健康状态精确估计的进一步深入研究提供了参考。 展开更多
关键词 锂离子电池 健康状态 深度学习 注意力机制 转置transformer模型 可解释性
在线阅读 下载PDF
基于Transformer模型的时序数据预测方法综述 被引量:7
2
作者 孟祥福 石皓源 《计算机科学与探索》 北大核心 2025年第1期45-64,共20页
时序数据预测(TSF)是指通过分析历史数据的趋势性、季节性等潜在信息,预测未来时间点或时间段的数值和趋势。时序数据由传感器生成,在金融、医疗、能源、交通、气象等众多领域都发挥着重要作用。随着物联网传感器的发展,海量的时序数据... 时序数据预测(TSF)是指通过分析历史数据的趋势性、季节性等潜在信息,预测未来时间点或时间段的数值和趋势。时序数据由传感器生成,在金融、医疗、能源、交通、气象等众多领域都发挥着重要作用。随着物联网传感器的发展,海量的时序数据难以使用传统的机器学习解决,而Transformer在自然语言处理和计算机视觉等领域的诸多任务表现优秀,学者们利用Transformer模型有效捕获长期依赖关系,使得时序数据预测任务取得了飞速发展。综述了基于Transformer模型的时序数据预测方法,按时间梳理了时序数据预测的发展进程,系统介绍了时序数据预处理过程和方法,介绍了常用的时序预测评价指标和数据集。以算法框架为研究内容系统阐述了基于Transformer的各类模型在TSF任务中的应用方法和工作原理。通过实验对比了各个模型的性能、优点和局限性,并对实验结果展开了分析与讨论。结合Transformer模型在时序数据预测任务中现有工作存在的挑战提出了该方向未来发展趋势。 展开更多
关键词 深度学习 时序数据预测 数据预处理 transformer模型
在线阅读 下载PDF
基于VMD和改进Transformer模型的镍镉蓄电池SOH预测研究
3
作者 于天剑 冯恩来 +1 位作者 伍珣 张庆东 《铁道科学与工程学报》 北大核心 2025年第7期3266-3279,共14页
动车组镍镉电池容量表现出非线性特性和“记忆效应”等特征,严重影响传统动车组电池健康状态(state of health,SOH)预测模型的准确性。为准确预测动车组的SOH并提高其蓄电池管理系统的效率和可靠性,基于变分模态分解(variational mode d... 动车组镍镉电池容量表现出非线性特性和“记忆效应”等特征,严重影响传统动车组电池健康状态(state of health,SOH)预测模型的准确性。为准确预测动车组的SOH并提高其蓄电池管理系统的效率和可靠性,基于变分模态分解(variational mode decomposition,VMD)和改进的Transformer模型,提出一种综合预测框架。首先,通过白鲸优化算法(beluga whale optimization,BWO)对VMD的超参数进行优化,利用VMD分解重构准确捕捉电池在其整个生命周期中的容量退化特性,消除蓄电池记忆效应对SOH预测研究带来的不良影响;其次,在Transformer编码模块中嵌入了长短时记忆网络自编码模块(long short-term memory network autoencoder,LSTM Autoencoder),以有效提取电池健康退化的短期特征信息并压缩数据维度,从而降低模型复杂度;最后,将Transformer解码层替换为全连接神经网络,以降低模型复杂度和减少预测误差累积现象,从而提高模型的预测性能和运行效率。并且在验证方案中,以实际动车组蓄电池为研究对象,通过消融实验以及横向对比实验双向证明研究算法具有最高的预测精度,输出预测结果在均方根误差、平均绝对误差相较于其他模型平均降低了60.83%和62.14%,在决定系数上平均提升了6.73%,具有高度的准确性和鲁棒性。可以实现对电池SOH实现精确的预测,对电池健康状态进行有效监控,为电池检修工作提供数据支撑和方法支持。 展开更多
关键词 镍镉蓄电池 SOH预测 变分模态分解 长短时记忆网络自编码器 改进transformer模型
在线阅读 下载PDF
结合状态空间模型和Transformer的时空增强视频字幕生成 被引量:1
4
作者 孙昊英 李树一 +1 位作者 习泽宇 毋立芳 《信号处理》 北大核心 2025年第2期279-289,共11页
视频字幕生成(Video Captioning)旨在用自然语言描述视频中的内容,在人机交互、辅助视障人士、体育视频解说等领域具有广泛的应用前景。然而视频中复杂的时空内容变化增加了视频字幕生成的难度,之前的方法通过提取时空特征、先验信息等... 视频字幕生成(Video Captioning)旨在用自然语言描述视频中的内容,在人机交互、辅助视障人士、体育视频解说等领域具有广泛的应用前景。然而视频中复杂的时空内容变化增加了视频字幕生成的难度,之前的方法通过提取时空特征、先验信息等方式提高生成字幕的质量,但在时空联合建模方面仍存在不足,可能导致视觉信息提取不充分,影响字幕生成结果。为了解决这个问题,本文提出一种新颖的时空增强的状态空间模型和Transformer(SpatioTemporal-enhanced State space model and Transformer,ST2)模型,通过引入最近流行的具有全局感受野和线性的计算复杂度的Mamba(一种状态空间模型),增强时空联合建模能力。首先,通过将Mamba与Transformer并行结合,提出空间增强的状态空间模型(State Space Model,SSM)和Transformer(Spatial enHanced State space model and Transformer module,SH-ST),克服了卷积的感受野问题并降低计算复杂度,同时增强模型提取空间信息的能力。然后为了增强时间建模,我们利用Mamba的时间扫描特性,并结合Transformer的全局建模能力,提出时间增强的SSM和Transformer(Temporal enHanced State space model and Transformer module,TH-ST)。具体地,我们对SH-ST产生的特征进行重排序,从而使Mamba以交叉扫描的方式增强重排序后特征的时间关系,最后用Transformer进一步增强时间建模能力。实验结果表明,我们ST2模型中SH-ST和TH-ST结构设计的有效性,且在广泛使用的视频字幕生成数据集MSVD和MSR-VTT上取得了具有竞争力的结果。具体的,我们的方法分别在MSVD和MSR-VTT数据集上的绝对CIDEr分数超过最先进的结果6.9%和2.6%,在MSVD上的绝对CIDEr分数超过了基线结果4.9%。 展开更多
关键词 视频字幕生成 视频理解 状态空间模型 transformer
在线阅读 下载PDF
基于GC特征和脑区频段Transformer模型的EEG情感识别
5
作者 张睿 张雪英 +1 位作者 陈桂军 黄丽霞 《计算机工程》 北大核心 2025年第6期311-319,共9页
人的情感在发生变化时,不同通道间脑电图(EEG)信号会交互作用,且不同频段交互特征存在分脑区特性。为提取全脑交互性特征和充分捕获特征在不同脑区频段间依赖性,提出主对角线非0的格兰杰因果(GC)特征提取方法和分脑区分频段的Transforme... 人的情感在发生变化时,不同通道间脑电图(EEG)信号会交互作用,且不同频段交互特征存在分脑区特性。为提取全脑交互性特征和充分捕获特征在不同脑区频段间依赖性,提出主对角线非0的格兰杰因果(GC)特征提取方法和分脑区分频段的Transformer模型。首先,针对计算自身因果度量值时GC值为0的问题,通过改进GC算法,提取出EEG信号各通道非0的自身因果信息。然后,针对常用情感识别模型总是关注局部特性,缺乏全局视野的问题,根据不同频段下同脑区间存在关联的特点,对因果特征进行脑区频段划分,使用脑区频段Transformer模型将特征进行不同脑区不同频段特征间的依赖性和贡献捕获。在TYUT3.0数据集上的实验结果表明,在使用提出的脑区频段Transformer模型分类识别时,主对角线非0 GC矩阵相比于常用GC矩阵,平均识别准确率提升了约1.59百分点,说明了所提出特征的优越性;在使用提出的主对角线非0 GC矩阵作为特征时,提出的脑区频段Transformer模型平均准确率达到94.50%,较已有的模型平均识别准确率提升了1.89百分点,说明了脑区频段划分特征依赖性及全局融合思路的有效性。 展开更多
关键词 格兰杰因果 脑区 频段 transformer模型 脑电图情感识别
在线阅读 下载PDF
基于改进Transformer模型的Ad Hoc网络MAC协议识别技术
6
作者 何文雯 李盛祥 +3 位作者 王莉 李浩 李盈达 马鹏飞 《电讯技术》 北大核心 2025年第8期1240-1247,共8页
针对现有的媒体访问控制(Media Access Control,MAC)协议识别模型存在特征数据选取不完善和只关注局部特征的问题,首先,基于Transformer模型提出了Conv-Transformer模型。该模型将卷积操作引入到模型中,对卷积后特征图中的特征值进行分... 针对现有的媒体访问控制(Media Access Control,MAC)协议识别模型存在特征数据选取不完善和只关注局部特征的问题,首先,基于Transformer模型提出了Conv-Transformer模型。该模型将卷积操作引入到模型中,对卷积后特征图中的特征值进行分割拼接,并添加类别信息编码。其次,基于Exata平台搭建不同拓扑结构的Ad Hoc网络仿真场景,收集所有物理层的数据对Conv-Transformer模型进行训练和测试。测试结果表明,在Ad Hoc网络中对ALOHA、CSMA/CA、MACA和TDMA 4种MAC协议的识别任务上,提出的模型与经典深度学习模型递归神经网络(Recurrent Neural Network,RNN)、卷积神经网络(Convolutional Neural Network,CNN)和Transformer相比,比RNN模型的准确率提高了20.8%,比CNN模型的准确率提高了14.6%,比Transformer模型的准确率提高了68.8%。 展开更多
关键词 Ad Hoc网络 MAC协议识别 深度学习 transformer模型
在线阅读 下载PDF
图像处理中CNN与视觉Transformer混合模型研究综述 被引量:5
7
作者 郭佳霖 智敏 +1 位作者 殷雁君 葛湘巍 《计算机科学与探索》 北大核心 2025年第1期30-44,共15页
卷积神经网络(CNN)与视觉Transformer是目前图像处理领域中两大重要的深度学习模型,两者经过多年来不断的研究与进步,已在该领域取得了非凡的成就。近些年来,CNN与视觉Transformer的混合模型正在逐步兴起,广泛的研究不断克服两种模型存... 卷积神经网络(CNN)与视觉Transformer是目前图像处理领域中两大重要的深度学习模型,两者经过多年来不断的研究与进步,已在该领域取得了非凡的成就。近些年来,CNN与视觉Transformer的混合模型正在逐步兴起,广泛的研究不断克服两种模型存在的弱项,高效地发挥出各自的亮点,在图像处理任务中表现出优异的效果。基于CNN与视觉Transformer混合模型进行深入阐述。总体概述了CNN与Vision Transformer模型的架构和优缺点,并总结混合模型的概念及优势。围绕串行结构融合方式、并行结构融合方式、层级交叉结构融合方式以及其他融合方式等四个方面全面回顾梳理了混合模型的研究现状和实际进展,并针对各种融合方式的主要代表模型进行总结与剖析,从多方面对典型混合模型进行评价对比。多角度叙述了混合模型在图像识别、图像分类、目标检测和图像分割等实际图像处理特定领域中应用研究,展现出混合模型在具体实践中的适用性和高效性。深入分析混合模型未来研究方向,并为后续该模型在图像处理中的研究与应用提出展望。 展开更多
关键词 卷积神经网络(CNN) 视觉transformer 混合模型 图像处理 深度学习
在线阅读 下载PDF
基于Transformer模型的光学元件温度预测方法
8
作者 胡豪 杨晓峰 +2 位作者 王端 冯谦 胡争争 《强激光与粒子束》 北大核心 2025年第7期22-27,共6页
采用Transformer模型来解决多物理场耦合作用下的光学元件实时温度预测难题。试验结果表明,与经验模型法相比,Transformer模型法在均方根误差和平均绝对误差2个指标上分别提升70%和32%;与LSTM法相比,Transformer模型法在均方根误差和平... 采用Transformer模型来解决多物理场耦合作用下的光学元件实时温度预测难题。试验结果表明,与经验模型法相比,Transformer模型法在均方根误差和平均绝对误差2个指标上分别提升70%和32%;与LSTM法相比,Transformer模型法在均方根误差和平均绝对误差2个指标上分别提升66%和23%;Transformer模型法的决定系数值更加接近1,表明模型的预测结果与真实值吻合度更高。 展开更多
关键词 光学元件 transformer模型 实时温度 温度预测
在线阅读 下载PDF
前额叶皮层启发的Transformer模型应用及其进展
9
作者 潘雨辰 贾克斌 张铁林 《自动化学报》 北大核心 2025年第7期1403-1422,共20页
聚焦于生物结构与类脑智能的交叉研究方向,探讨前额叶皮层的结构及其认知功能对人工智能领域Transformer模型的启发.前额叶皮层在认知控制和决策制定中扮演着关键角色.首先介绍前额叶皮层的注意力机制、生物编码、多感觉融合等相关生物... 聚焦于生物结构与类脑智能的交叉研究方向,探讨前额叶皮层的结构及其认知功能对人工智能领域Transformer模型的启发.前额叶皮层在认知控制和决策制定中扮演着关键角色.首先介绍前额叶皮层的注意力机制、生物编码、多感觉融合等相关生物研究进展,然后探讨这些生物机制如何启发新型的类脑Transformer架构,重点提升其在自注意力、位置编码、多模态整合等方面的生物合理性与计算高效性.最后,总结前额叶皮层启发的类脑新模型,在支持多类型神经网络组合、多领域应用、世界模型构建等方面的发展与潜力,为生物和人工智能两大领域之间交叉融合构建桥梁. 展开更多
关键词 生物结构 类脑智能 前额叶皮层 transformer 世界模型
在线阅读 下载PDF
基于CEEMDAN-FESC-OVMD-Transformer耦合模型的长江上游月径流预测
10
作者 徐嘉远 邹磊 +2 位作者 张利平 王飞宇 夏军 《水资源保护》 北大核心 2025年第4期197-209,共13页
为提升水文要素非一致性变异背景下的长江上游月径流预测精度,基于宜昌与寸滩水文站1961—2022年逐月径流数据,构建了基于自适应噪声完备集合经验模态分解(CEEMDAN)、模糊熵(FE)、谱聚类(SC)、最优变分模态分解(OVMD)与Transformer深度... 为提升水文要素非一致性变异背景下的长江上游月径流预测精度,基于宜昌与寸滩水文站1961—2022年逐月径流数据,构建了基于自适应噪声完备集合经验模态分解(CEEMDAN)、模糊熵(FE)、谱聚类(SC)、最优变分模态分解(OVMD)与Transformer深度学习模型耦合的CEEMDAN-FESC-OVMD-Transformer混合预测模型对长江上游月径流进行模拟预测。结果表明:CEEMDAN-FESC-OVMD-Transformer混合预测模型在宜昌与寸滩水文站具有较好的月径流预测效果,训练期纳什效率系数高于0.9,测试期纳什效率系数分别达到0.84与0.89;CEEMDAN-FESC-OVMD分解框架可提升汛期峰值流量预测精度;OVMD二次分解结构可有效降低月径流高频序列复杂度,提升径流的预测稳定性。 展开更多
关键词 月径流预测 CEEMDAN VMD transformer 耦合模型 长江上游
在线阅读 下载PDF
基于Transformer转子应力预测模型的汽轮机启动优化
11
作者 胡晓丹 陈涛 +4 位作者 陈旭 石睿 吴凡 姜伟 谢诞梅 《汽轮机技术》 北大核心 2025年第3期210-214,共5页
汽轮机启动过程中的温度梯度和热应力变化直接影响其安全运行和使用寿命。以某型1000 MW等级核电汽轮机组为研究对象,分析启动过程中转子应力的变化情况,采用热-固耦合计算方法和基于Transformer的应力预测模型,利用遗传算法优化汽轮机... 汽轮机启动过程中的温度梯度和热应力变化直接影响其安全运行和使用寿命。以某型1000 MW等级核电汽轮机组为研究对象,分析启动过程中转子应力的变化情况,采用热-固耦合计算方法和基于Transformer的应力预测模型,利用遗传算法优化汽轮机启动方案。研究结果表明,通过对启动过程中的关键参数进行优化,启动时间缩短约16.37%,且转子最大应力较原始方案减少0.83MPa,应力预测模型的平均误差仅为1.69%。提出的启动优化方案在确保安全的前提下提高了经济效益,可为机组实际运行提供理论支持。 展开更多
关键词 汽轮机转子 热应力 应力预测 启动优化 机器学习 transformer模型
在线阅读 下载PDF
基于改进Transformer的木质粉尘质量浓度预测模型研究
12
作者 刘琳 杨玉晗 +2 位作者 梅勇 吴清明 易灿灿 《中国安全生产科学技术》 北大核心 2025年第8期110-118,共9页
为解决现有非平稳时间序列预测模型(如LSTM)对粉尘质量浓度数据的长期依赖关系表征不足、以及多步预测准确率低等问题,提出1种改进的Transformer模型并用于木质粉尘质量浓度多变量多步预测。该模型首先引入多时间分辨率模块,以增强对时... 为解决现有非平稳时间序列预测模型(如LSTM)对粉尘质量浓度数据的长期依赖关系表征不足、以及多步预测准确率低等问题,提出1种改进的Transformer模型并用于木质粉尘质量浓度多变量多步预测。该模型首先引入多时间分辨率模块,以增强对时间序列中短期与长期依赖关系的捕捉能力;其次,采用稀疏图自注意力机制替代原有注意力机制,用于减少计算量,同时使模型能够充分学习序列之间的隐式空间依赖关系。研究结果表明:改进的Transformer模型在短期(1 h和2 h)、中期(6 h和12 h)和长期(18 h和24 h)预测任务中均表现出优异的性能,在中长期预测任务中与原始模型相比在预测精度上提升了50%以上。研究结果可为提高粉尘质量浓度预测精度、实现职业健康预警与安全生产管理提供理论与方法参考。 展开更多
关键词 粉尘质量浓度 transformer模型 长时间序列预测 机器学习 注意力机制
在线阅读 下载PDF
基于Transformer模型的5G P-IoT在高压设备测温中的应用
13
作者 秦秉东 陈保豪 +4 位作者 刘博林 张国翊 朱海龙 索思亮 欧嘉俊 《广东电力》 北大核心 2025年第4期109-116,共8页
针对当前换流站一次设备温度监测中非接触式红外测温存在成本高、准确率低、时效性差等问题,提出一种面向高压场景的温度监控方案。该方案结合5G无源物联网(Passive Internet of Things,P-IoT)技术与Transformer模型。通过在高压设备关... 针对当前换流站一次设备温度监测中非接触式红外测温存在成本高、准确率低、时效性差等问题,提出一种面向高压场景的温度监控方案。该方案结合5G无源物联网(Passive Internet of Things,P-IoT)技术与Transformer模型。通过在高压设备关键部位部署无源温度传感器,利用反向散射通信技术实现低功耗数据传输,并借助5G网络将数据传输至边缘服务器处理。随后,采用基于Transformer的异常检测模型,通过多头注意力机制有效捕捉温度数据中的时序特征,结合最大池化操作实现对异常温度的准确识别与预警。实验结果表明,该方案在高电磁干扰环境下的传输成功率达到99.0%,在温度异常检测任务中的精度、召回率和F1值分别为98.7%、97.5%和96.9%,显著优于LSTM和GRU等传统时序模型。研究成果验证了所提方法在复杂高压场景下的适用性和稳定性,可为后续在更高电压等级的特高压设备中推广应用奠定技术基础。 展开更多
关键词 5G P-IoT 无源温度传感器 transformer模型 特高压设备 温度异常检测
在线阅读 下载PDF
基于Transformer时间序列分块模型的CO_(2)驱油藏静压预测方法
14
作者 李春雷 杨河山 +3 位作者 张红霞 曹裕民 姜兴兴 靳彩霞 《油气地质与采收率》 北大核心 2025年第4期126-133,共8页
油藏静压是油田开发研究中的一项重要基础资料,其获取条件苛刻,样本数量极少,目前根据生产过程中的动压数据利用经验法估算静压,数据误差较大。针对上述问题,借助深度学习理论,提出一种基于Transformer时间序列分块模型的CO_(2)驱油藏... 油藏静压是油田开发研究中的一项重要基础资料,其获取条件苛刻,样本数量极少,目前根据生产过程中的动压数据利用经验法估算静压,数据误差较大。针对上述问题,借助深度学习理论,提出一种基于Transformer时间序列分块模型的CO_(2)驱油藏静压预测方法。根据相关性分析筛选模型参数,利用迭代插补器填充样本,构建静压预测样本集;依据通道独立原则,将多变量时间序列划分为单变量时间序列,引入时间序列分块机制将时间序列切分为子序列块以捕获局部特征;基于Transformer模型架构,利用多头自注意力机制提取特征,自监督学习机制提升对复杂动态特性的捕捉能力,实现CO_(2)驱油藏静压的预测。研究结果表明,所提出的模型可以实现对未停产井组每口井油层中部静压的预测,并显著提高预测的准确性。 展开更多
关键词 深度学习 时间序列分块模型 油藏静压 预测模型 transformer
在线阅读 下载PDF
改进Transformer模型的语音识别轻量化设计
15
作者 王艳红 赵亮 王官军 《计算机工程与应用》 北大核心 2025年第16期196-204,共9页
语音识别作为AI的重要应用分支近年来取得了显著的成果,其中基于Transformer模型的语音识别发展尤为突出。然而Transformer模型较大的参数量和较高的计算复杂度,难以在边缘设备上实现部署,因此设计轻量化的Transformer模型用于语音识别... 语音识别作为AI的重要应用分支近年来取得了显著的成果,其中基于Transformer模型的语音识别发展尤为突出。然而Transformer模型较大的参数量和较高的计算复杂度,难以在边缘设备上实现部署,因此设计轻量化的Transformer模型用于语音识别部署是亟需解决的问题。设计了一种轻量化Transformer模型,通过将Query、Key、Value的线性操作替换为轻量级卷积操作,优化多头注意力机制以改善注意力分布,并在前馈神经网络中引入分块低秩分解以最大化模型压缩。实验结果表明,在AISHELL-1和LRS2数据集上,该模型在同等条件下模型大小减少68.03%,参数量减少67.06%,错词率相对降低23.19%。 展开更多
关键词 transformer 语音识别 轻量化 模型压缩 深度学习
在线阅读 下载PDF
基于Point Transformer方法的鱼类三维点云模型分类
16
作者 胡少秋 段瑞 +3 位作者 张东旭 鲍江辉 吕华飞 段明 《水生生物学报》 北大核心 2025年第2期146-155,共10页
为实现对不同鱼类的精准分类,研究共采集110尾真实鱼类的三维模型,对获取的3D模型进行基于预处理、旋转增强和下采样等操作后,获取了1650尾实验样本。然后基于Point Transformer网络和2个三维分类的对比网络进行数据集的分类训练和验证... 为实现对不同鱼类的精准分类,研究共采集110尾真实鱼类的三维模型,对获取的3D模型进行基于预处理、旋转增强和下采样等操作后,获取了1650尾实验样本。然后基于Point Transformer网络和2个三维分类的对比网络进行数据集的分类训练和验证。结果表明,利用本实验的目标方法Point Transformer获得了比2个对比网络更好的分类结果,整体的分类准确率能够达到91.9%。同时对所使用的三维分类网络进行有效性评估,3个模型对于5种真实鱼类模型的分类是有意义的,其中Point Transformer的模型ROC曲线准确率最高,AUC面积最大,对于三维鱼类数据集的分类最为有效。研究提供了一种可以实现对鱼类三维模型进行精准分类的方法,为以后的智能化渔业资源监测提供一种新的技术手段。 展开更多
关键词 点云处理 Point transformer 三维模型 鱼类分类
在线阅读 下载PDF
基于Transformer模型的人工智能视域下受教育权保障进路
17
作者 王霞 《河北师范大学学报(教育科学版)》 北大核心 2025年第4期58-68,共11页
以DeepSeek、ChatGPT等为代表的基于Transformer模型的人工智能技术,正推动着人类迈向数字智能时代。通过“数据流收集-处理-输出”三层框架解析,Transformer模型为核心的人工智能技术对受教育权形成系统性解构:收集端隐私泄露、处理端... 以DeepSeek、ChatGPT等为代表的基于Transformer模型的人工智能技术,正推动着人类迈向数字智能时代。通过“数据流收集-处理-输出”三层框架解析,Transformer模型为核心的人工智能技术对受教育权形成系统性解构:收集端隐私泄露、处理端算法偏见、输出端评估失真,技术便利的表象下潜藏结构性权利侵蚀危机。藉由教育正义法理念,从教育平等、教育自由、教育信赖三个法伦理学省思,可以发现人工智能视阈下受教育权保障需要国家履行尊重、给付和保护三重义务体系,同时社会也需承担尊重和保护的配合义务。从根本上,宪法中的人权条款也同样适用抵御强势私团体的社会权力或数字社会权力所带来的人权侵害。 展开更多
关键词 transformer模型 受教育权 国家义务 社会义务
在线阅读 下载PDF
危化品车辆装卸载过程识别的Transformer-RNN模型
18
作者 李晓辉 孙子文 《传感技术学报》 北大核心 2025年第2期272-278,共7页
针对危化品运输过程的偷倒、漏倒问题导致的安全事故,构建Transformer-RNN模型,对运输过程中的运行、装载、卸载三种状态进行识别。首先获取通过安装了传感器的车辆传回的速度、载重、原始AD值等实时数据,通过差分提取速度差、载重差、... 针对危化品运输过程的偷倒、漏倒问题导致的安全事故,构建Transformer-RNN模型,对运输过程中的运行、装载、卸载三种状态进行识别。首先获取通过安装了传感器的车辆传回的速度、载重、原始AD值等实时数据,通过差分提取速度差、载重差、方向差等特征;其次构建融合Transformer和RNN的分类模型,通过Transformer完成对输入的表征学习,RNN进行学习,自注意力机制突出关键特征;最后由全连接网络输出分类结果。实验结果表明,所构建的模型在危化品车运输过程识别中的准确率、查准率、查全率和F1值均优于现有模型。 展开更多
关键词 车辆装卸载识别 transformer模型 循环神经网络 自注意力机制 时间序列
在线阅读 下载PDF
基于CNN和Transformer的轻量化电能质量扰动识别模型 被引量:1
19
作者 张彼德 邱杰 +3 位作者 娄广鑫 周灿 罗蜻清 李天倩 《电力工程技术》 北大核心 2025年第1期69-78,共10页
针对目前基于深度学习的电能质量扰动(power quality disturbances,PQDs)识别模型参数量多和计算复杂度较高的问题,文中提出了一种卷积神经网络(convolutional neural networks,CNN)融合Transformer(CNN and Transformer,CaT)的轻量化P... 针对目前基于深度学习的电能质量扰动(power quality disturbances,PQDs)识别模型参数量多和计算复杂度较高的问题,文中提出了一种卷积神经网络(convolutional neural networks,CNN)融合Transformer(CNN and Transformer,CaT)的轻量化PQDs识别模型。首先,利用深度可分离卷积初步提取扰动信号的局部特征;其次,提出一种高效的软阈值模块,在不显著增加模型参数量与计算复杂度的同时减少特征中的噪声与冗余特征;然后,利用Transformer模型挖掘PQDs信号的全局特征;最后,通过池化层、线性层和Softmax层完成PQDs识别。仿真实验表明,文中所提CaT模型在参数量和浮点运算数较少的情况下能够有效完成PQDs识别,对PQDs信号识别准确率高,具有良好的噪声鲁棒性。同时,得益于轻量化和端到端的模型设计,CaT模型相对于其他深度学习模型的推理时间更短。 展开更多
关键词 电能质量扰动(PQDs) 轻量化 参数量 高效软阈值模块 深度可分离卷积 transformer模型
在线阅读 下载PDF
MTTorch:面向MT-3000芯片和Transformer模型的PyTorch算子库实现与优化
20
作者 王昊天 孙羽菲 +4 位作者 隋轶丞 王嘉豪 石昌青 方建滨 张玉志 《软件学报》 北大核心 2025年第8期3896-3916,共21页
随着Transformer类大模型的飞速发展,算力逐渐成为制约领域发展的瓶颈,如何根据加速器硬件的结构特性加速和优化大语言模型的训练性能已成为研究热点.面向天河新一代超算系统的加速芯片MT-3000,提出并实现了适用于CPU+DSP异构架构的PyTo... 随着Transformer类大模型的飞速发展,算力逐渐成为制约领域发展的瓶颈,如何根据加速器硬件的结构特性加速和优化大语言模型的训练性能已成为研究热点.面向天河新一代超算系统的加速芯片MT-3000,提出并实现了适用于CPU+DSP异构架构的PyTorch扩展库——MTTorch,其核心是一个多核并行的算子库,对Transformer类模型训练过程中的核心算子进行向量化实现和优化.同时,针对MT-3000架构特性,提出了面向多核DSP的高性能规约算法及乒乓算法,显著提升了算子的运算性能.MTTorch还具有很好的通用性,对于不同版本的PyTorch都可以动态链接库的形式进行加载,不改变PyTorch的原生实现.大量实验证明,实现的核心算子在MT-3000芯片上有着很好的性能,在单DSP簇上可以达到8倍的加速效果.利用MTTorch在多节点执行训练任务时有着接近线性的加速比,极大地提升了Transformer类模型在MT-3000芯片上的训练效率. 展开更多
关键词 PyTorch 高性能计算 transformer模型 天河超级计算机 CPU+DSP异构计算 软件生态
在线阅读 下载PDF
上一页 1 2 15 下一页 到第
使用帮助 返回顶部