锂离子电池健康状态(state of health,SOH)估计对确保能量存储系统的可靠性和安全性至关重要。然而,现有SOH估计方法在单一特征提取和固定充放电条件依赖方面存在局限性,难以适应多变的实际工作环境。为解决这一问题,本工作提出了一种...锂离子电池健康状态(state of health,SOH)估计对确保能量存储系统的可靠性和安全性至关重要。然而,现有SOH估计方法在单一特征提取和固定充放电条件依赖方面存在局限性,难以适应多变的实际工作环境。为解决这一问题,本工作提出了一种基于弛豫电压的并行多尺度特征融合卷积模型(multi-scale feature fusion convolution model,MSFFCM)结合极端梯度提升树(XGBoost)的SOH估计方法。MSFFCM通过多层堆叠卷积模块提取弛豫电压数据的深层特征,同时利用并行多尺度注意力机制增强了多尺度特征的捕捉能力,并将这些特征与统计特征进行融合,以提升模型的特征提取和融合能力。针对XGBoost模型,本工作应用贝叶斯优化算法进行参数调优,从而在多源融合特征基础上实现高精度SOH估计。实验验证基于两种商用18650型号电池的多温度和多充放电策略数据集,结果表明该方法的均方根误差(RMSE)和平均绝对误差(MAE)均小于0.5%,明显优于传统方法。本工作为锂电池健康管理提供了一种不依赖特定充放电条件的有效估计工具,有望在复杂的实际应用中发挥重要作用。展开更多
为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力...为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。展开更多
针对人工目视排查大型旋转过滤设备网片缺陷时存在的效率低下,缺陷与背景之间边界模糊及网孔中的小水珠产生反光现象等问题,提出了一个基于多维特征融合的高效网片缺陷检测算法。引入了泊松图像增强技术,实现了缺陷目标与正常背景区域...针对人工目视排查大型旋转过滤设备网片缺陷时存在的效率低下,缺陷与背景之间边界模糊及网孔中的小水珠产生反光现象等问题,提出了一个基于多维特征融合的高效网片缺陷检测算法。引入了泊松图像增强技术,实现了缺陷目标与正常背景区域的平滑融合,增加了小样本缺陷数量的同时解决了缺陷数量分布不均匀的问题。在YOLOv8中融入轻量多维卷积改进的C2fLWDC(C2flightweight multi-dimensional convolution)模块及加权多特征增强模块,既增强了网络对缺陷特征的提取又实现了各级特征的高效融合,提升了对多尺度缺陷样本的表征能力。采用EIOU(efficient intersection over union)定位损失函数,加速了对缺陷目标的准确定位。网片数据集检测结果表明,改进后的算法mAP(mean average precision)达到92%,相较于原始模型提升了16.8个百分点,能很好地完成缺陷目标的检测任务。展开更多
针对目前无人机航拍图像小目标检测算法存在的漏检、误检、精度与速度不平衡等问题,提出复合特征与多尺度融合的无人机小目标检测算法CM-YOLOv8s(composite and multi-scale YOLOv8s)。通过在空间金字塔池化模块引入通道特征,实现目标...针对目前无人机航拍图像小目标检测算法存在的漏检、误检、精度与速度不平衡等问题,提出复合特征与多尺度融合的无人机小目标检测算法CM-YOLOv8s(composite and multi-scale YOLOv8s)。通过在空间金字塔池化模块引入通道特征,实现目标复合特征质量提升;通过重建模型颈部结构,提高目标细节特征的保留比例;通过设计DRHead检测头,实现多尺度特征检测图融合,增强多尺度目标检测适应性;通过采用Wise-IoU损失函数提升模型收敛速度。相比于基准算法,改进后的CM-YOLOv8s算法参数量仅为3.5×10^(6),参数量降低了69%。实验结果表明,提出的CM-YOLOv8s算法在数据集VisDrone2019上的mAP50显著提升了6.8个百分点;同时,在UAV-DT和DIOR数据集上验证了提出算法的泛化性和有效性。展开更多
文摘为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。
文摘针对人工目视排查大型旋转过滤设备网片缺陷时存在的效率低下,缺陷与背景之间边界模糊及网孔中的小水珠产生反光现象等问题,提出了一个基于多维特征融合的高效网片缺陷检测算法。引入了泊松图像增强技术,实现了缺陷目标与正常背景区域的平滑融合,增加了小样本缺陷数量的同时解决了缺陷数量分布不均匀的问题。在YOLOv8中融入轻量多维卷积改进的C2fLWDC(C2flightweight multi-dimensional convolution)模块及加权多特征增强模块,既增强了网络对缺陷特征的提取又实现了各级特征的高效融合,提升了对多尺度缺陷样本的表征能力。采用EIOU(efficient intersection over union)定位损失函数,加速了对缺陷目标的准确定位。网片数据集检测结果表明,改进后的算法mAP(mean average precision)达到92%,相较于原始模型提升了16.8个百分点,能很好地完成缺陷目标的检测任务。
文摘针对目前无人机航拍图像小目标检测算法存在的漏检、误检、精度与速度不平衡等问题,提出复合特征与多尺度融合的无人机小目标检测算法CM-YOLOv8s(composite and multi-scale YOLOv8s)。通过在空间金字塔池化模块引入通道特征,实现目标复合特征质量提升;通过重建模型颈部结构,提高目标细节特征的保留比例;通过设计DRHead检测头,实现多尺度特征检测图融合,增强多尺度目标检测适应性;通过采用Wise-IoU损失函数提升模型收敛速度。相比于基准算法,改进后的CM-YOLOv8s算法参数量仅为3.5×10^(6),参数量降低了69%。实验结果表明,提出的CM-YOLOv8s算法在数据集VisDrone2019上的mAP50显著提升了6.8个百分点;同时,在UAV-DT和DIOR数据集上验证了提出算法的泛化性和有效性。
文摘针对因遮挡和自相似性导致的从单张RGB图像估计三维手部姿态不精确的问题,提出结合注意力机制和多尺度特征融合的三维手部姿态估计算法。首先,提出结合扩张卷积和CBAM(Convolutional Block Attention Module)注意力机制的感受强化模块(SEM),以替换沙漏网络(HGNet)中的基本块(Basicblock),在扩大感受野的同时增强对空间信息的敏感性,从而提高手部特征的提取能力;其次,设计一种结合SPCNet(Spatial Preserve and Contentaware Network)和Soft-Attention改进的多尺度信息融合模块SS-MIFM(SPCNet and Soft-attention-Multi-scale Information Fusion Module),在充分考虑空间内容感知机制的情况下,有效地聚合多级特征,并显著提高二维手部关键点检测的准确性;最后,利用2.5D姿态转换模块将二维姿态转换为三维姿态,从而避免二维关键点坐标直接回归计算三维姿态信息导致的空间丢失问题。实验结果表明,在InterHand2.6M数据集上,所提算法的双手关节点平均误差(MPJPE)、单手MPJPE和根节点平均误差(MRRPE)分别达到了12.32、9.96和29.57 mm;在RHD(Rendered Hand pose Dataset)上,与InterNet和QMGR-Net算法相比,所提算法的终点误差(EPE)分别降低了2.68和0.38 mm。以上结果说明了所提算法能够更准确地估计手部姿态,且在一些双手交互和遮挡的场景下有更高的鲁棒性。