期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于注意力机制的安全帽佩戴状态检测模型
被引量:
3
1
作者
韩飞腾
刘永强
+4 位作者
房玉东
冯涛
郭玮
薛明
姬玉成
《中国安全生产科学技术》
CAS
CSCD
北大核心
2024年第8期196-202,共7页
为缓解安全生产视频监控场景下物体尺寸小、背景复杂、遮挡容易导致的安全帽佩戴状态漏检、误检、定位不准等问题,提出1种基于注意力机制的2阶段高精度安全帽佩戴状态检测模型。提出双向多层连接融合的特征金字塔网络,并设计基于编解码...
为缓解安全生产视频监控场景下物体尺寸小、背景复杂、遮挡容易导致的安全帽佩戴状态漏检、误检、定位不准等问题,提出1种基于注意力机制的2阶段高精度安全帽佩戴状态检测模型。提出双向多层连接融合的特征金字塔网络,并设计基于编解码的空间注意力机制去除冗余特征,提升小尺寸目标的召回率;采用多尺度卷积提取候选区域多层上下文特征,并利用注意力机制对不同层级、不同尺度的上下文特征进行显式加权,进而提高模型在复杂背景下的鲁棒性;解耦候选区域分类和定位网络,分别引入通道注意力和空间注意力提升模型分类和定位精度。研究结果表明:基于注意力机制的安全帽佩戴状态检测模型整体上优于当前相对主流的高精度检测框架,如YOLOv3、SSD、RetinaNet、Faster R-CNN、TridentNet模型。研究结果可有效缓解安全生产视频监控场景下安全帽佩戴状态的漏检、误检和定位不准等问题。
展开更多
关键词
安全
生产
安全帽佩戴状态检测
目标
检测
注意力机制
特征金字塔
在线阅读
下载PDF
职称材料
基于改进型Yolov4的室内安全帽佩戴状态检测算法
被引量:
4
2
作者
黄志清
张煜森
+1 位作者
张严心
任柯燕
《天津大学学报(自然科学与工程技术版)》
EI
CAS
CSCD
北大核心
2023年第1期64-72,共9页
为实现智能检测室内作业人员是否佩戴安全帽,提出了一种改进的Yolov4算法.首先,针对目前室内安全帽佩戴状态检测实验数据较为匮乏的问题,自建了一个用于室内场景的安全帽佩戴状态检测数据集.随后,为提升室内监控图像中模糊、微小目标的...
为实现智能检测室内作业人员是否佩戴安全帽,提出了一种改进的Yolov4算法.首先,针对目前室内安全帽佩戴状态检测实验数据较为匮乏的问题,自建了一个用于室内场景的安全帽佩戴状态检测数据集.随后,为提升室内监控图像中模糊、微小目标的安全帽佩戴状态检测准确率,设计了自校准多尺度特征融合模块并将其嵌入原Yolov4网络中.该模块首先通过深度超参数化卷积从上至下、从下至上融合不同尺度下的特征,加强待检测目标的特征纹理,使得模型能够检测出这两类目标.再通过特征自校准模块对融合后的特征进行过滤,加强或抑制特征图上的每一像素点,使得模型可以在融合后的特征图上进行精确的检测.此外为加速模型收敛,使用解耦合的检测头替换原Yolov4中的耦合检测头,使目标定位任务与安全帽佩戴状态的分类任务相互独立.最后为提升模型对于重叠目标的检测能力,提出了软性非极大值抑制后处理算法Soft-CIoU-NMS.实验结果表明,该改进的Yolov4模型能够准确地识别出室内作业人员是否佩戴安全帽,准确率达到了95.1%.相比于原Yolov4模型,该模型对位于监控摄像头远端的模糊、微小目标和监控图像中重叠目标的检测能力有明显提升,检测准确率提升了约4.7%,较好地满足了室内场景下作业人员安全帽佩戴状态智能检测的要求.
展开更多
关键词
计算机视觉
视频监控
深度学习
安全帽佩戴状态检测
Yolov4
在线阅读
下载PDF
职称材料
题名
基于注意力机制的安全帽佩戴状态检测模型
被引量:
3
1
作者
韩飞腾
刘永强
房玉东
冯涛
郭玮
薛明
姬玉成
机构
应急管理部大数据中心
清华大学自动化系
出处
《中国安全生产科学技术》
CAS
CSCD
北大核心
2024年第8期196-202,共7页
基金
国家重点研发计划项目(2021YFC3001304)。
文摘
为缓解安全生产视频监控场景下物体尺寸小、背景复杂、遮挡容易导致的安全帽佩戴状态漏检、误检、定位不准等问题,提出1种基于注意力机制的2阶段高精度安全帽佩戴状态检测模型。提出双向多层连接融合的特征金字塔网络,并设计基于编解码的空间注意力机制去除冗余特征,提升小尺寸目标的召回率;采用多尺度卷积提取候选区域多层上下文特征,并利用注意力机制对不同层级、不同尺度的上下文特征进行显式加权,进而提高模型在复杂背景下的鲁棒性;解耦候选区域分类和定位网络,分别引入通道注意力和空间注意力提升模型分类和定位精度。研究结果表明:基于注意力机制的安全帽佩戴状态检测模型整体上优于当前相对主流的高精度检测框架,如YOLOv3、SSD、RetinaNet、Faster R-CNN、TridentNet模型。研究结果可有效缓解安全生产视频监控场景下安全帽佩戴状态的漏检、误检和定位不准等问题。
关键词
安全
生产
安全帽佩戴状态检测
目标
检测
注意力机制
特征金字塔
Keywords
work safety
detection on wearing status of safety helmet
object detection
attention mechanism
feature pyramid
分类号
X947 [环境科学与工程—安全科学]
在线阅读
下载PDF
职称材料
题名
基于改进型Yolov4的室内安全帽佩戴状态检测算法
被引量:
4
2
作者
黄志清
张煜森
张严心
任柯燕
机构
北京工业大学信息学部
北京交通大学电子信息工程学院
出处
《天津大学学报(自然科学与工程技术版)》
EI
CAS
CSCD
北大核心
2023年第1期64-72,共9页
基金
国家自然科学基金青年基金资助项目(618002044).
文摘
为实现智能检测室内作业人员是否佩戴安全帽,提出了一种改进的Yolov4算法.首先,针对目前室内安全帽佩戴状态检测实验数据较为匮乏的问题,自建了一个用于室内场景的安全帽佩戴状态检测数据集.随后,为提升室内监控图像中模糊、微小目标的安全帽佩戴状态检测准确率,设计了自校准多尺度特征融合模块并将其嵌入原Yolov4网络中.该模块首先通过深度超参数化卷积从上至下、从下至上融合不同尺度下的特征,加强待检测目标的特征纹理,使得模型能够检测出这两类目标.再通过特征自校准模块对融合后的特征进行过滤,加强或抑制特征图上的每一像素点,使得模型可以在融合后的特征图上进行精确的检测.此外为加速模型收敛,使用解耦合的检测头替换原Yolov4中的耦合检测头,使目标定位任务与安全帽佩戴状态的分类任务相互独立.最后为提升模型对于重叠目标的检测能力,提出了软性非极大值抑制后处理算法Soft-CIoU-NMS.实验结果表明,该改进的Yolov4模型能够准确地识别出室内作业人员是否佩戴安全帽,准确率达到了95.1%.相比于原Yolov4模型,该模型对位于监控摄像头远端的模糊、微小目标和监控图像中重叠目标的检测能力有明显提升,检测准确率提升了约4.7%,较好地满足了室内场景下作业人员安全帽佩戴状态智能检测的要求.
关键词
计算机视觉
视频监控
深度学习
安全帽佩戴状态检测
Yolov4
Keywords
computer vision
video surveillance
deep learning
safety helmet-wearing detection
Yolov4
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于注意力机制的安全帽佩戴状态检测模型
韩飞腾
刘永强
房玉东
冯涛
郭玮
薛明
姬玉成
《中国安全生产科学技术》
CAS
CSCD
北大核心
2024
3
在线阅读
下载PDF
职称材料
2
基于改进型Yolov4的室内安全帽佩戴状态检测算法
黄志清
张煜森
张严心
任柯燕
《天津大学学报(自然科学与工程技术版)》
EI
CAS
CSCD
北大核心
2023
4
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部