-
题名基于YOLOv5改进算法的屏蔽门夹人检测系统
- 1
-
-
作者
陈修忻
-
机构
上海地铁维护保障有限公司工务分公司
-
出处
《城市轨道交通研究》
北大核心
2025年第S1期128-132,共5页
-
文摘
[目的]旨在通过目标检测方法,识别并减少车门夹人事件对城市轨道交通运营的影响,以提升车站的运营效率与安全性。基于YOLOv5改进算法设计屏蔽门夹人检测系统。[方法]基于现场收集含人不同姿态、角度图片共计5384张,将其按8∶2分为训练集和测试集;对比YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l模型训练效果,选取YOLOv5m为基准模型并进行改进;在YOLOv5m模型的基础上引入自注意力机制CoTNet网络,并将Neck网络中的FPN(特征金字塔网络)+PAN(路径聚合网络)结构优化为BiFPN(加权双向特征金字塔网络)结构。[结果及结论]改进后的YOLOv5m算法比原算法在测试精度、召回率、平均精度上都有所提高。同时该系统可以实现对单张图片、单个视频、摄像头、视频流以及整个文件夹图片进行目标检测,并在识别到目标物后自动启动报警机制。
-
关键词
城市轨道交通
屏蔽门
夹人检测
YOLOv5算法
cotnet网络
加权双向特征金字塔
-
Keywords
urban rail transit
screen door
passenger entrapment detection
YOLOv5 algorithm
cotnet network
weighted bi-directional feature pyramid
-
分类号
U284.48
[交通运输工程—交通信息工程及控制]
-
-
题名基于改进YOLOv5s的无人机图像识别
被引量:6
- 2
-
-
作者
李杰
王峰
马晨
吴国瑞
赵伟
康智强
-
机构
太原理工大学电子信息与光学工程学院
中国电子科技集团公司第三十三研究所
-
出处
《电光与控制》
CSCD
北大核心
2024年第4期22-27,91,共7页
-
基金
山西省重点研发计划(202102150101008)
山西省留学人员科技活动择优资助项目(20230063)
山西省水利科学技术研究与推广项目(2022GM002)。
-
文摘
无人机在军事情报、航拍检测等领域能够提供目标相关的图像信息,为处理任务提供目标信息。针对无人机图像背景复杂、检测目标小、可提取特征少等问题,提出基于YOLOv5s的改进无人机图像识别算法。首先,结合CotNet模块对网络结构进行优化,提升模型自学习能力并增强识别精度;其次,对颈部网络进行改进,通过跨层链接和提高特征图分辨率更好地利用浅层特征图中包含的丰富信息来定位目标,并且在检测头部分采用解耦检测头,减少预测过程中定位与分类任务对于特征信息的冲突;最后,为了提高收敛速度和模型精度,在CIoU和EIoU损失函数的基础上对损失函数的宽高纵横比进行优化。在公开数据集VisDrone测试集上进行测试,所提算法相比原始YOLOv5s算法的mAP_(50)与mAP_(50∶95)分别提升了6.1与2.9个百分点,实验结果表明,所提模型能够有效提升无人机图像识别的准确率。
-
关键词
目标检测
无人机图像
颈部网络
cotnet
解耦头
损失函数
-
Keywords
target detection
UAV image
Neck network
cotnet
decoupled heads
loss function
-
分类号
TP391.4
[自动化与计算机技术—计算机应用技术]
-
-
题名基于自监督注意和图像特征融合的文本生成图像方法
被引量:3
- 3
-
-
作者
廖涌卉
张海涛
金海波
-
机构
辽宁工程技术大学软件学院
汕头职业技术学院计算机系
-
出处
《液晶与显示》
CAS
CSCD
北大核心
2024年第2期180-191,共12页
-
基金
国家自然科学基金(No.62173171)
辽宁省科技厅面上项目(No.2022-MS-397)。
-
文摘
现有的层级式文本生成图像的方法在初始图像生成阶段仅使用上采样进行特征提取,上采样过程本质是卷积运算,卷积运算的局限性会造成全局信息被忽略并且远程语义无法交互。虽然已经有方法在模型中加入自注意力机制,但依然存在图像细节缺失、图像结构性错误等问题。针对上述存在的问题,提出一种基于自监督注意和图像特征融合的生成对抗网络模型SAF-GAN。将基于ContNet的自监督模块加入到初始特征生成阶段,利用注意机制进行图像特征之间的自主映射学习,通过特征的上下文关系引导动态注意矩阵,实现上下文挖掘和自注意学习的高度结合,提高低分辨率图像特征的生成效果,后续通过不同阶段网络的交替训练实现高分辨率图像的细化生成。同时加入了特征融合增强模块,通过将模型上一阶段的低分辨率特征与当前阶段的特征进行融合,生成网络可以充分利用低层特征的高语义信息和高层特征的高分辨率信息,更加保证了不同分辨率特征图的语义一致性,从而实现高分辨率的逼真的图像生成。实验结果表明,相较于基准模型(AttnGAN),SAF-GAN模型在IS和FID指标上均有改善,在CUB数据集上的IS分数提升了0.31,FID指标降低了3.45;在COCO数据集上的IS分数提升了2.68,FID指标降低了5.18。SAF-GAN模型能够有效生成更加真实的图像,证明了该方法的有效性。
-
关键词
计算机视觉
生成对抗网络
文本生成图像
cotnet
图像特征融合
-
Keywords
computer vision
generative adversarial networks
text-to-image
cotnet
image feature fusion
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-