针对基于You Only Look Once v2算法的目标检测存在精度低及稳健性差的问题,提出一种车辆目标实时检测的You Only Look Once v2优化算法;该算法以You Only Look Once v2算法为基础,通过增加网络深度,增强特征提取能力,同时,通过添加残...针对基于You Only Look Once v2算法的目标检测存在精度低及稳健性差的问题,提出一种车辆目标实时检测的You Only Look Once v2优化算法;该算法以You Only Look Once v2算法为基础,通过增加网络深度,增强特征提取能力,同时,通过添加残差模块,解决网络深度增加带来的梯度消失或弥散问题;该方法将网络结构中低层特征与高层特征进行融合,提升对小目标车辆的检测精度。结果表明,通过在KITTI数据集上进行测试,优化后的算法在检测速度不变的情况下,提高了车辆目标检测精度,平均精度达到0.94,同时提升了小目标检测的准确性。展开更多
针对交通路口图像复杂,小目标难测且目标之间易遮挡以及天气和光照变化引发的颜色失真、噪声和模糊等问题,提出一种基于YOLOv9(You Only Look Once version 9)的交通路口图像的多目标检测算法ITD-YOLOv9(Intersection Target Detection-...针对交通路口图像复杂,小目标难测且目标之间易遮挡以及天气和光照变化引发的颜色失真、噪声和模糊等问题,提出一种基于YOLOv9(You Only Look Once version 9)的交通路口图像的多目标检测算法ITD-YOLOv9(Intersection Target Detection-YOLOv9)。首先,设计CoT-CAFRNet(Chain-of-Thought prompted Content-Aware Feature Reassembly Network)图像增强网络,以提升图像质量,并优化输入特征;其次,加入通道自适应特征融合(iCAFF)模块,以增强小目标及重叠遮挡目标的提取能力;再次,提出特征融合金字塔结构BiHS-FPN(Bi-directional High-level Screening Feature Pyramid Network),以增强多尺度特征的融合能力;最后,设计IF-MPDIoU(Inner-Focaler-Minimum Point Distance based Intersection over Union)损失函数,以通过调整变量因子,聚焦关键样本,并增强泛化能力。实验结果表明,在自制数据集和SODA10M数据集上,ITD-YOLOv9算法的检测精度分别为83.8%和56.3%,检测帧率分别为64.8 frame/s和57.4 frame/s。与YOLOv9算法相比,ITD-YOLOv9算法的检测精度分别提升了3.9和2.7个百分点。可见,所提算法有效实现了交通路口的多目标检测。展开更多
为推动输电线路智能化巡检模式,本文针对人机协同巡检模式下的图像差异大及干扰因素多等问题,提出一种轻量化改进型YOLOv8(you only look once version 8)的多类别绝缘子缺陷检测算法。首先在特征提取网络中融合可变形大核注意力的同时...为推动输电线路智能化巡检模式,本文针对人机协同巡检模式下的图像差异大及干扰因素多等问题,提出一种轻量化改进型YOLOv8(you only look once version 8)的多类别绝缘子缺陷检测算法。首先在特征提取网络中融合可变形大核注意力的同时进行轻量化,提升网络对不同目标轮廓与尺寸的适用性;其次引入渐进的特征融合策略以改善不同层次特征间的语义差距,提高网络的检测精度;并设计轻量化非对称检测头,进一步减少参数冗余;最后改进边框损失函数有效降低由密集遮挡造成的漏检和误检数量。实验结果表明,本文算法相较于原算法检测精度提升了7.7%,参数量和计算量分别减少了26.4%和30.2%,并在密集、遮挡、多类别目标缺陷检测中的评价指标均领先于当前主流的几类目标检测算法,显著提高了复杂环境下的多类别绝缘子缺陷检测,实现了检测精度和速度的双重提升。展开更多
针对小尺度目标在检测时精确率低且易出现漏检和误检等问题,提出一种改进的YOLOv3(You Only Look Once version 3)小目标检测算法。在网络结构方面,为提高基础网络的特征提取能力,使用DenseNet-121密集连接网络替换原Darknet-53网络作...针对小尺度目标在检测时精确率低且易出现漏检和误检等问题,提出一种改进的YOLOv3(You Only Look Once version 3)小目标检测算法。在网络结构方面,为提高基础网络的特征提取能力,使用DenseNet-121密集连接网络替换原Darknet-53网络作为其基础网络,同时修改卷积核尺寸,进一步降低特征图信息的损耗,并且为增强检测模型对小尺度目标的鲁棒性,额外增加第4个尺寸为104×104像素的特征检测层;在对特征图融合操作方面,使用双线性插值法进行上采样操作代替原最近邻插值法上采样操作,解决大部分检测算法中存在的特征严重损失问题;在损失函数方面,使用广义交并比(GIoU)代替交并比(IoU)来计算边界框的损失值,同时引入Focal Loss焦点损失函数作为边界框的置信度损失函数。实验结果表明,改进算法在VisDrone2019数据集上的均值平均精度(mAP)为63.3%,较原始YOLOv3检测模型提高了13.2百分点,并且在GTX 1080 Ti设备上可实现52帧/s的检测速度,对小目标有着较好的检测性能。展开更多
针对目前的行人检测方法无法在复杂环境下同时满足高准确率和高检测速度的问题,提出了基于改进YOLOv7(You Only Look Once version 7)的高效行人检测方法。首先,通过鬼影混洗卷积(GSConv)与VoVGSCSP(VoVNetGS Conv Cross StagePartial)...针对目前的行人检测方法无法在复杂环境下同时满足高准确率和高检测速度的问题,提出了基于改进YOLOv7(You Only Look Once version 7)的高效行人检测方法。首先,通过鬼影混洗卷积(GSConv)与VoVGSCSP(VoVNetGS Conv Cross StagePartial)构建Slim-Neck,前者使用混洗操作将普通卷积生成的信息渗透到可分离卷积的输出中,来实现通道间信息的交互,后者采用一次聚合方法设计了跨阶段部分网络,VoVGSCSP模块降低了计算量和网络结构的复杂性,并保持了足够的精度;其次,在YOLOv7输出部分引入卷积注意力模块(CBAM),利用通道注意力和空间注意力来捕获特征之间的相关性,从而优化YOLOv7的特征表示能力,提高方法的准确性和鲁棒性。实验结果表明:在多个行人数据集上,与YOLOv5和YOLOv7相比,改进的YOLOv7方法平均精度(AP)提升了1.63~3.51个百分点,对数平均缺失率(LAMR)降低了0.54~3.97个百分点;相较于YOLOv7平均检测速度提升10FPS;同时通过弗里德曼检验结果证实改进的YOLOv7方法可用于实际数据,有效地实现了复杂环境下高精度、快速的行人检测。展开更多
针对现有混凝土构件裂缝人工检测操作不仅费时、费力,而且易出现错检、误检、漏检,以及部分位置难以开展检测的问题,提出一种基于深度学习YOLOX(You Only Look Once)算法的混凝土构件裂缝智能化检测方法;首先采集、整理包含各类混凝土...针对现有混凝土构件裂缝人工检测操作不仅费时、费力,而且易出现错检、误检、漏检,以及部分位置难以开展检测的问题,提出一种基于深度学习YOLOX(You Only Look Once)算法的混凝土构件裂缝智能化检测方法;首先采集、整理包含各类混凝土构件的典型裂缝图像,并通过图像数据增强建立Pascal VOC数据集,然后基于Facebook公司开发的深度学习框架Pytorch,利用数据集训练YOLOX算法,并进行裂缝识别和验证;将训练完成后YOLOX算法移植至搭载安卓系统的手机端,进行现场实时检测操作。结果表明:在迭代次数为700时,混凝土构件裂缝识别精度可达88.84%,能有效筛分混凝土构件表面裂缝,并排除其他干扰项,证明了所提出的方法对裂缝具有较高的识别精度和广泛的适用性;经试验测试,移植至手机端的YOLOX算法能在提升便携性的同时保证高效、准确的检测效果,具有良好的应用前景。展开更多
针对当前海珍品捕捞机器人使用的水下目标检测算法参数量大,不适合部署在移动设备上等问题,提出一种基于YOLOv7-tiny(You Only Look Once version 7-tiny)的轻量化海珍品检测算法ES YOLOv7-tiny(EfficientNet-S YOLOv7-tiny)。在YOLOv7-...针对当前海珍品捕捞机器人使用的水下目标检测算法参数量大,不适合部署在移动设备上等问题,提出一种基于YOLOv7-tiny(You Only Look Once version 7-tiny)的轻量化海珍品检测算法ES YOLOv7-tiny(EfficientNet-S YOLOv7-tiny)。在YOLOv7-tiny基础上,首先,将骨干网络替换为改进的EfficientNet(EfficientNet-S),并将颈部网络中卷积核大小为3×3卷积替换为轻量化卷积,达到降低参数量的目的;其次,使用k-means++算法聚类锚框尺寸,提高推理速度;最后,使用知识蒸馏算法进一步提高精度。在RUIE(Real-world Underwater Image Enhancement)数据集上,所提算法平均精度均值(mAP)达到73.7%,检测速度达到123 frame/s,参数量为4.45×10^(6),与原YOLOv7-tiny算法相比,在mAP上提升了1.2个百分点,检测速度提升25 frame/s,参数量降低了1.56×10^(6)。实验结果表明,所提算法在提升精度的同时降低了参数量,并且加快了检测速度,证明了该算法的有效性。展开更多
自动驾驶场景下的目标检测是计算机视觉中重要研究方向之一,确保自动驾驶汽车对物体进行实时准确的目标检测是研究重点。近年来,深度学习技术迅速发展并被广泛应用于自动驾驶领域中,极大促进了自动驾驶领域的进步。为此,针对YOLO(You On...自动驾驶场景下的目标检测是计算机视觉中重要研究方向之一,确保自动驾驶汽车对物体进行实时准确的目标检测是研究重点。近年来,深度学习技术迅速发展并被广泛应用于自动驾驶领域中,极大促进了自动驾驶领域的进步。为此,针对YOLO(You Only Look Once)算法在自动驾驶领域中的目标检测研究现状,从以下4个方面分析。首先,总结单阶段YOLO系列检测算法思想及其改进方法,分析YOLO系列算法的优缺点;其次,论述YOLO算法在自动驾驶场景下目标检测中的应用,从交通车辆、行人和交通信号识别这3个方面分别阐述和总结研究现状及应用情况;此外,总结目标检测中常用的评价指标、目标检测数据集和自动驾驶场景数据集;最后,展望目标检测存在的问题和未来发展方向。展开更多
针对BDLS(Blockchain version of DLS)共识算法在含有大量节点且具有层次结构的系统中共识效率低下的问题,提出一种基于BDLS的区块链共识改进算法HBDLS(Hierarchical BDLS)。首先,根据实际应用中节点的属性将节点分为两个层次,每个高层...针对BDLS(Blockchain version of DLS)共识算法在含有大量节点且具有层次结构的系统中共识效率低下的问题,提出一种基于BDLS的区块链共识改进算法HBDLS(Hierarchical BDLS)。首先,根据实际应用中节点的属性将节点分为两个层次,每个高层节点分别管理一个低层节点簇;其次,将所有低层节点进行分簇共识,并将共识结果汇报至相应的高层节点;最后,所有高层节点对低层的共识结果再次共识,通过高层共识的数据将被写入区块链。理论分析和仿真实验结果表明,在36个节点且单个区块包含4500个交易的情况下,HBDLS的吞吐量相较于BDLS算法提高了21%;在44个节点且单个区块包含3000个交易的情况下,HBDLS的吞吐量相较于BDLS算法提高了约52%;在44个节点且单个区块包含1个交易的情况下,HBDLS的共识时延相较于BDLS算法下降了26%。实验结果表明,在节点数多且交易量大的系统中,HBDLS能够大幅提高系统的共识效率。展开更多
文摘针对基于You Only Look Once v2算法的目标检测存在精度低及稳健性差的问题,提出一种车辆目标实时检测的You Only Look Once v2优化算法;该算法以You Only Look Once v2算法为基础,通过增加网络深度,增强特征提取能力,同时,通过添加残差模块,解决网络深度增加带来的梯度消失或弥散问题;该方法将网络结构中低层特征与高层特征进行融合,提升对小目标车辆的检测精度。结果表明,通过在KITTI数据集上进行测试,优化后的算法在检测速度不变的情况下,提高了车辆目标检测精度,平均精度达到0.94,同时提升了小目标检测的准确性。
文摘针对交通路口图像复杂,小目标难测且目标之间易遮挡以及天气和光照变化引发的颜色失真、噪声和模糊等问题,提出一种基于YOLOv9(You Only Look Once version 9)的交通路口图像的多目标检测算法ITD-YOLOv9(Intersection Target Detection-YOLOv9)。首先,设计CoT-CAFRNet(Chain-of-Thought prompted Content-Aware Feature Reassembly Network)图像增强网络,以提升图像质量,并优化输入特征;其次,加入通道自适应特征融合(iCAFF)模块,以增强小目标及重叠遮挡目标的提取能力;再次,提出特征融合金字塔结构BiHS-FPN(Bi-directional High-level Screening Feature Pyramid Network),以增强多尺度特征的融合能力;最后,设计IF-MPDIoU(Inner-Focaler-Minimum Point Distance based Intersection over Union)损失函数,以通过调整变量因子,聚焦关键样本,并增强泛化能力。实验结果表明,在自制数据集和SODA10M数据集上,ITD-YOLOv9算法的检测精度分别为83.8%和56.3%,检测帧率分别为64.8 frame/s和57.4 frame/s。与YOLOv9算法相比,ITD-YOLOv9算法的检测精度分别提升了3.9和2.7个百分点。可见,所提算法有效实现了交通路口的多目标检测。
文摘为推动输电线路智能化巡检模式,本文针对人机协同巡检模式下的图像差异大及干扰因素多等问题,提出一种轻量化改进型YOLOv8(you only look once version 8)的多类别绝缘子缺陷检测算法。首先在特征提取网络中融合可变形大核注意力的同时进行轻量化,提升网络对不同目标轮廓与尺寸的适用性;其次引入渐进的特征融合策略以改善不同层次特征间的语义差距,提高网络的检测精度;并设计轻量化非对称检测头,进一步减少参数冗余;最后改进边框损失函数有效降低由密集遮挡造成的漏检和误检数量。实验结果表明,本文算法相较于原算法检测精度提升了7.7%,参数量和计算量分别减少了26.4%和30.2%,并在密集、遮挡、多类别目标缺陷检测中的评价指标均领先于当前主流的几类目标检测算法,显著提高了复杂环境下的多类别绝缘子缺陷检测,实现了检测精度和速度的双重提升。
文摘前视合成孔径雷达(Synthetic Aperture Radar,SAR)在舰船成像方面展现出了巨大潜力,特别是在SAR导引头的应用上,弹载雷达通常在末制导阶段要求雷达正对着舰船运动,以实现精准打击。针对前视条件下传统SAR成像方法所面临的挑战,本文提出了一种基于极坐标格式算法(Polar Format Algorithm,PFA)的前视SAR舰船目标立面成像方法。该方法巧妙利用了舰船的三维特性,即使雷达工作在前视模式下,虽然在方位向上无法有效分辨目标,但在俯仰向上仍然存在多普勒频率的变化,因此可以在距离向和俯仰向上实现对舰船的二维高分辨率成像。此外,这种成像方法能够提供更为直观的舰船立面图像,这对于识别舰船类型、判断潜在威胁以及对其进行精准打击具有重大意义。最后,通过仿真实验对该方法进行了验证,利用PFA获得了清晰的舰船立面图像。
文摘针对小尺度目标在检测时精确率低且易出现漏检和误检等问题,提出一种改进的YOLOv3(You Only Look Once version 3)小目标检测算法。在网络结构方面,为提高基础网络的特征提取能力,使用DenseNet-121密集连接网络替换原Darknet-53网络作为其基础网络,同时修改卷积核尺寸,进一步降低特征图信息的损耗,并且为增强检测模型对小尺度目标的鲁棒性,额外增加第4个尺寸为104×104像素的特征检测层;在对特征图融合操作方面,使用双线性插值法进行上采样操作代替原最近邻插值法上采样操作,解决大部分检测算法中存在的特征严重损失问题;在损失函数方面,使用广义交并比(GIoU)代替交并比(IoU)来计算边界框的损失值,同时引入Focal Loss焦点损失函数作为边界框的置信度损失函数。实验结果表明,改进算法在VisDrone2019数据集上的均值平均精度(mAP)为63.3%,较原始YOLOv3检测模型提高了13.2百分点,并且在GTX 1080 Ti设备上可实现52帧/s的检测速度,对小目标有着较好的检测性能。
文摘针对目前的行人检测方法无法在复杂环境下同时满足高准确率和高检测速度的问题,提出了基于改进YOLOv7(You Only Look Once version 7)的高效行人检测方法。首先,通过鬼影混洗卷积(GSConv)与VoVGSCSP(VoVNetGS Conv Cross StagePartial)构建Slim-Neck,前者使用混洗操作将普通卷积生成的信息渗透到可分离卷积的输出中,来实现通道间信息的交互,后者采用一次聚合方法设计了跨阶段部分网络,VoVGSCSP模块降低了计算量和网络结构的复杂性,并保持了足够的精度;其次,在YOLOv7输出部分引入卷积注意力模块(CBAM),利用通道注意力和空间注意力来捕获特征之间的相关性,从而优化YOLOv7的特征表示能力,提高方法的准确性和鲁棒性。实验结果表明:在多个行人数据集上,与YOLOv5和YOLOv7相比,改进的YOLOv7方法平均精度(AP)提升了1.63~3.51个百分点,对数平均缺失率(LAMR)降低了0.54~3.97个百分点;相较于YOLOv7平均检测速度提升10FPS;同时通过弗里德曼检验结果证实改进的YOLOv7方法可用于实际数据,有效地实现了复杂环境下高精度、快速的行人检测。
文摘针对现有混凝土构件裂缝人工检测操作不仅费时、费力,而且易出现错检、误检、漏检,以及部分位置难以开展检测的问题,提出一种基于深度学习YOLOX(You Only Look Once)算法的混凝土构件裂缝智能化检测方法;首先采集、整理包含各类混凝土构件的典型裂缝图像,并通过图像数据增强建立Pascal VOC数据集,然后基于Facebook公司开发的深度学习框架Pytorch,利用数据集训练YOLOX算法,并进行裂缝识别和验证;将训练完成后YOLOX算法移植至搭载安卓系统的手机端,进行现场实时检测操作。结果表明:在迭代次数为700时,混凝土构件裂缝识别精度可达88.84%,能有效筛分混凝土构件表面裂缝,并排除其他干扰项,证明了所提出的方法对裂缝具有较高的识别精度和广泛的适用性;经试验测试,移植至手机端的YOLOX算法能在提升便携性的同时保证高效、准确的检测效果,具有良好的应用前景。
文摘针对当前海珍品捕捞机器人使用的水下目标检测算法参数量大,不适合部署在移动设备上等问题,提出一种基于YOLOv7-tiny(You Only Look Once version 7-tiny)的轻量化海珍品检测算法ES YOLOv7-tiny(EfficientNet-S YOLOv7-tiny)。在YOLOv7-tiny基础上,首先,将骨干网络替换为改进的EfficientNet(EfficientNet-S),并将颈部网络中卷积核大小为3×3卷积替换为轻量化卷积,达到降低参数量的目的;其次,使用k-means++算法聚类锚框尺寸,提高推理速度;最后,使用知识蒸馏算法进一步提高精度。在RUIE(Real-world Underwater Image Enhancement)数据集上,所提算法平均精度均值(mAP)达到73.7%,检测速度达到123 frame/s,参数量为4.45×10^(6),与原YOLOv7-tiny算法相比,在mAP上提升了1.2个百分点,检测速度提升25 frame/s,参数量降低了1.56×10^(6)。实验结果表明,所提算法在提升精度的同时降低了参数量,并且加快了检测速度,证明了该算法的有效性。
文摘自动驾驶场景下的目标检测是计算机视觉中重要研究方向之一,确保自动驾驶汽车对物体进行实时准确的目标检测是研究重点。近年来,深度学习技术迅速发展并被广泛应用于自动驾驶领域中,极大促进了自动驾驶领域的进步。为此,针对YOLO(You Only Look Once)算法在自动驾驶领域中的目标检测研究现状,从以下4个方面分析。首先,总结单阶段YOLO系列检测算法思想及其改进方法,分析YOLO系列算法的优缺点;其次,论述YOLO算法在自动驾驶场景下目标检测中的应用,从交通车辆、行人和交通信号识别这3个方面分别阐述和总结研究现状及应用情况;此外,总结目标检测中常用的评价指标、目标检测数据集和自动驾驶场景数据集;最后,展望目标检测存在的问题和未来发展方向。
文摘针对BDLS(Blockchain version of DLS)共识算法在含有大量节点且具有层次结构的系统中共识效率低下的问题,提出一种基于BDLS的区块链共识改进算法HBDLS(Hierarchical BDLS)。首先,根据实际应用中节点的属性将节点分为两个层次,每个高层节点分别管理一个低层节点簇;其次,将所有低层节点进行分簇共识,并将共识结果汇报至相应的高层节点;最后,所有高层节点对低层的共识结果再次共识,通过高层共识的数据将被写入区块链。理论分析和仿真实验结果表明,在36个节点且单个区块包含4500个交易的情况下,HBDLS的吞吐量相较于BDLS算法提高了21%;在44个节点且单个区块包含3000个交易的情况下,HBDLS的吞吐量相较于BDLS算法提高了约52%;在44个节点且单个区块包含1个交易的情况下,HBDLS的共识时延相较于BDLS算法下降了26%。实验结果表明,在节点数多且交易量大的系统中,HBDLS能够大幅提高系统的共识效率。