期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于改进YOLOv5的密集行人检测算法 被引量:5
1
作者 胡倩 皮建勇 +2 位作者 胡伟超 黄昆 王娟敏 《计算机工程》 北大核心 2025年第3期216-228,共13页
针对现有的行人检测方法对于密集行人或小目标行人检测精度低的问题,提出一种基于YOLOv5的综合改进算法模型YOLOv5_Conv-SPD_DAFPN。首先,针对小目标或密集行人的特征信息易丢失这一问题,在骨干网络中引入Conv-SPD网络模块替代原有的跨... 针对现有的行人检测方法对于密集行人或小目标行人检测精度低的问题,提出一种基于YOLOv5的综合改进算法模型YOLOv5_Conv-SPD_DAFPN。首先,针对小目标或密集行人的特征信息易丢失这一问题,在骨干网络中引入Conv-SPD网络模块替代原有的跨步卷积,有效缓解特征信息丢失的问题;其次,针对非相邻特征图不直接融合从而引起特征融合率较低的问题,提出新的双层渐进金字塔网络(DAFPN),提高行人检测的准确性和精度;最后,基于EIoU_Loss和CIoU_Loss引入EfficiCIoU_Loss定位损失函数,以调整和提高帧回归率,促进网络模型更快收敛。模型在CrowdHuman和WiderPerson行人数据集上相比于原YOLOv5模型,mAP@0.5、mAP@0.5∶0.95分别提升了3.9、5.3百分点和2.1、2.1百分点;引入EfficiCIoU_Loss后,模型收敛速度分别提升了11%、33%。这些改进使得基于YOLOv5的密集行人检测在特征信息保留、多尺度融合和损失函数优化等方面都取得了显著进展,提高了其在实际应用中的性能和效率。 展开更多
关键词 密集行人检测 小目标行人检测 Conv-SPD网络 双层渐进特征金字塔网络 EfficiCIoU_Loss损失函数
在线阅读 下载PDF
基于跨模态注意力融合的煤炭异物检测方法 被引量:5
2
作者 曹现刚 李虎 +3 位作者 王鹏 吴旭东 向敬芳 丁文韬 《工矿自动化》 CSCD 北大核心 2024年第1期57-65,共9页
为解决原煤智能化洗选过程中煤流中夹杂的异物对比度低、相互遮挡导致异物图像检测时特征提取不充分的问题,提出了一种基于跨模态注意力融合的煤炭异物检测方法。通过引入Depth图像构建RGB图像与Depth图像的双特征金字塔网络(DFPN),采... 为解决原煤智能化洗选过程中煤流中夹杂的异物对比度低、相互遮挡导致异物图像检测时特征提取不充分的问题,提出了一种基于跨模态注意力融合的煤炭异物检测方法。通过引入Depth图像构建RGB图像与Depth图像的双特征金字塔网络(DFPN),采用浅层的特征提取策略提取Depth图像的低级特征,用深度边缘与深度纹理等基础特征辅助RGB图像深层特征,以有效获得2种特征的互补信息,从而丰富异物特征的空间与边缘信息,提高检测精度;构建了基于坐标注意力与改进空间注意力的跨模态注意力融合模块(CAFM),以协同优化并融合RGB特征与Depth特征,增强网络对特征图中被遮挡异物可见部分的关注度,提高被遮挡异物检测精度;使用区域卷积神经网络(R-CNN)输出煤炭异物的分类、回归与分割结果。实验结果表明:在检测精度方面,该方法的AP相较两阶段模型中较优的Mask transfiner高3.9%;在检测效率方面,该方法的单帧检测时间为110.5 ms,能够满足异物检测实时性需求。基于跨模态注意力融合的煤炭异物检测方法能够以空间特征辅助色彩、形状与纹理等特征,准确识别煤炭异物之间及煤炭异物与输送带之间的差异,从而有效提高对复杂特征异物的检测精度,减少误检、漏检现象,实现复杂特征下煤炭异物的精确检测与像素级分割。 展开更多
关键词 煤炭异物检测 实例分割 双特征金字塔网络 跨模态注意力融合 Depth图像 坐标注意力 改进空间注意力
在线阅读 下载PDF
基于双分支特征提取和自适应胶囊网络的DGA域名检测方法 被引量:2
3
作者 杨宏宇 章涛 +2 位作者 张良 成翔 胡泽 《软件学报》 EI CSCD 北大核心 2024年第8期3626-3646,共21页
面向域名生成算法(domain generation algorithm,DGA)的域名检测方法普遍具有特征提取能力弱、特征信息压缩比高等特点,这导致特征信息丢失、特征结构破坏以及域名检测效果较差等诸多不足.针对上述问题,提出一种基于双分支特征提取和自... 面向域名生成算法(domain generation algorithm,DGA)的域名检测方法普遍具有特征提取能力弱、特征信息压缩比高等特点,这导致特征信息丢失、特征结构破坏以及域名检测效果较差等诸多不足.针对上述问题,提出一种基于双分支特征提取和自适应胶囊网络的DGA域名检测方法.首先,通过样本清洗和字典构建重构原始样本并生成重构样本集;其次,通过双分支特征提取网络处理重构样本,在其中,利用切片金字塔网络提取域名局部特征,利用Transformer提取域名全局特征,并利用轻量级注意力融合不同层次的域名特征;然后,利用自适应胶囊网络计算域名特征图的重要度系数,将域名文本特征转换为向量域名特征,并通过特征转移计算基于文本特征的域名分类概率;同时,利用多层感知机处理域名统计特征,以此计算基于统计特征的域名分类概率;最后,通过合并得到的两种不同视角的域名分类概率进行域名检测.大量的实验表明,所提方法在DGA域名检测以及DGA域名家族检测分类方面均取得了当前领先的检测效果.在DGA域名检测中,F1分数提升了0.76%-5.57%;在DGA域名家族检测分类中,F1分数(宏平均)提升了1.79%-3.68%. 展开更多
关键词 DGA域名检测 深度学习 双分支特征提取网络 切片金字塔网络 自适应胶囊网络
在线阅读 下载PDF
基于双金字塔网络的RGB-D群猪图像分割方法 被引量:12
4
作者 高云 廖慧敏 +3 位作者 黎煊 雷明刚 余梅 李小平 《农业机械学报》 EI CAS CSCD 北大核心 2020年第7期36-43,共8页
为实现群养猪的视觉追踪和行为监测,针对猪舍中仔猪因拥挤堆叠等习性而导致的目标个体粘连、图像分割困难问题,提出基于双金字塔网络的RGBD群猪图像分割方法。该方法基于实例分割Mask R-CNN框架,在特征提取网络(ResNet101)基础上改进成... 为实现群养猪的视觉追踪和行为监测,针对猪舍中仔猪因拥挤堆叠等习性而导致的目标个体粘连、图像分割困难问题,提出基于双金字塔网络的RGBD群猪图像分割方法。该方法基于实例分割Mask R-CNN框架,在特征提取网络(ResNet101)基础上改进成双金字塔特征提取网络。RGB图像和Depth图像分别提取特征后进行融合,输入区域生成网络得到预选锚(ROI)和共享特征输入Head网络,通过类别、回归和掩模3个分支,输出检测目标的位置和分类结果,实现猪舍场景下群养仔猪粘连区域的有效个体分割。网络模型训练采用2000组图像样本,按照4∶1比例随机划分训练集和验证集。试验结果表明,双金字塔网络(Feature pyramid networks,FPN)能有效解决颜色相近、个体相似的群猪粘连问题,实现单个仔猪区域的完整分割,分割准确率达89.25%,训练GPU占有率为77.57%,与Mask R-CNN和PigNet网络分割结果相比,分割准确率和分割速度均有较大提高。双金字塔网络模型对于多种行为状态、不同粘连程度的群猪图像中个体分割都取得了良好效果,模型泛化性和鲁棒性较好,为群养猪的个体自动追踪提供了新的途径。 展开更多
关键词 群养猪 RGB-D 双金字塔网络 特征融合 深度学习
在线阅读 下载PDF
复杂场景下的行人跌倒检测算法 被引量:5
5
作者 方可 刘蓉 +2 位作者 魏驰宇 张心月 刘杨 《计算机应用》 CSCD 北大核心 2023年第6期1811-1817,共7页
随着人口老龄化程度的不断深化,跌倒检测成为医疗与健康领域的一个关键问题。针对复杂场景下跌倒检测算法准确率偏低的问题,提出一种改进的跌倒检测模型——PDD-FCOS(PVT DRFPN DIoU-Fully Convolutional One-Stage object detection)... 随着人口老龄化程度的不断深化,跌倒检测成为医疗与健康领域的一个关键问题。针对复杂场景下跌倒检测算法准确率偏低的问题,提出一种改进的跌倒检测模型——PDD-FCOS(PVT DRFPN DIoU-Fully Convolutional One-Stage object detection)。在基准FCOS算法的骨干网络中引入金字塔视觉转换器(PVT),以不增加计算量为前提提取更丰富的语义信息;在特征信息融合阶段插入双重细化特征金字塔网络(DRFPN),更加准确地学习特征图之间采样点的位置和其他信息,并通过上下文信息捕获特征通道之间更准确的语义关系,从而提升检测性能;训练阶段采用距离交并比(DIoU)损失进行边界框回归,通过优化预测框与目标框中心点的距离,使回归框收敛得更快更准确,从而有效提高跌倒检测算法的准确率。实验结果表明,所提模型在开源数据集Fall detection Database上平均精确度均值(mAP)达到82.2%,与基准FCOS算法相比,所提算法的mAP提升了6.4个百分点,且相较于其他主流目标检测算法有精度上的提升以及更好的泛化能力。 展开更多
关键词 目标检测 行人跌倒检测 金字塔视觉转换器 注意力机制 双重细化特征金字塔网络 距离交并比
在线阅读 下载PDF
多分辨率融合输入的U型视网膜血管分割算法 被引量:7
6
作者 梁礼明 詹涛 +2 位作者 雷坤 冯骏 谭卢敏 《电子与信息学报》 EI CSCD 北大核心 2023年第5期1795-1806,共12页
针对视网膜血管拓扑结构不规则、形态复杂和尺度变化多样的特点,该文提出一种多分辨率融合输入的U型网络(MFIU-Net),旨在实现视网膜血管精准分割。设计以多分辨率融合输入为主干的粗略分割网络,生成高分辨率特征。采用改进的ResNeSt代... 针对视网膜血管拓扑结构不规则、形态复杂和尺度变化多样的特点,该文提出一种多分辨率融合输入的U型网络(MFIU-Net),旨在实现视网膜血管精准分割。设计以多分辨率融合输入为主干的粗略分割网络,生成高分辨率特征。采用改进的ResNeSt代替传统卷积,优化血管分割边界特征;将并行空间激活模块嵌入其中,捕获更多的语义和空间信息。构架另一U型精细分割网络,提高模型的微观表示和识别能力。一是底层采用多尺度密集特征金字塔模块提取血管的多尺度特征信息。二是利用特征自适应模块增强粗、细网络之间的特征融合,抑制不相关的背景噪声。三是设计面向细节的双重损失函数融合,以引导网络专注于学习特征。在眼底数据用于血管提取的数字视网膜图像(DRIVE)、视网膜结构分析(STARE)和儿童心脏与健康研究(CHASE_DB1)上进行实验,其准确率分别为97.00%,97.47%和97.48%,灵敏度分别为82.73%,82.86%和83.24%,曲线下的面积(AUC)值分别为98.74%,98.90%和98.93%。其模型整体性能优于现有算法。 展开更多
关键词 视网膜血管分割 U型网络 并行空间激活模块 多尺度密集特征金字塔模块 双重损失函数融合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部