针对海量废弃家电回收图像数据在回收技术中难以有效利用的问题,提出了一种基于ResNet和多尺度卷积的废弃家电回收图像分类模型(Multi-scale and Efficient ResNet,ME-ResNet)。首先,基于残差结构设计了多尺度卷积模块以提升不同尺度特...针对海量废弃家电回收图像数据在回收技术中难以有效利用的问题,提出了一种基于ResNet和多尺度卷积的废弃家电回收图像分类模型(Multi-scale and Efficient ResNet,ME-ResNet)。首先,基于残差结构设计了多尺度卷积模块以提升不同尺度特征信息提取能力,在此基础上基于ResNet设计了针对废弃家电回收图像分类问题的ME-ResNet模型;其次,通过用深度可分离卷积替换多尺度卷积中的部分卷积层,实现ME-ResNet模型轻量化;最后,通过与其他卷积神经网络的对比实验,对ME-ResNet及其轻量化模型的性能进行了验证。研究结果表明:相较于经典的卷积神经网络ResNet34,ME-ResNet及其轻量化模型均能有效提升识别准确度,针对构建的数据集,其最优准确率分别提升了1.2%和0.3%,宏精确率分别提升了1.7%和0.9%,宏召回率分别提升了1.3%和0.2%,宏F1分数分别提升了1.5%和0.5%。展开更多
经典AOD-Net(All in One Dehazing Network)去雾后的图像存在细节清晰度不足、明暗反差过大和画面昏暗等问题。为了解决这些图像去雾问题,提出一种在AOD-Net基础上改进的多尺度算法。改进的网络结构采用深度可分离卷积替换传统卷积方式...经典AOD-Net(All in One Dehazing Network)去雾后的图像存在细节清晰度不足、明暗反差过大和画面昏暗等问题。为了解决这些图像去雾问题,提出一种在AOD-Net基础上改进的多尺度算法。改进的网络结构采用深度可分离卷积替换传统卷积方式,减少了冗余参数量,加快了计算速度并有效地减少了模型的内存占用量,从而提高了算法去雾效率;同时采用多尺度结构在不同尺度上对雾图进行分析和处理,更好地捕捉图像的细节信息,提升了网络对图像细节的处理能力,解决了原算法去雾时存在的细节模糊问题;最后在网络结构中加入金字塔池化模块,用于整合图像不同区域的上下文信息,扩展了网络的感知范围,从而提高网络模型获取有雾图像全局信息的能力,进而改善图像色调失真、细节丢失等问题。此外,引入一个低照度增强模块,通过明确预测噪声实现去噪的目标,从而恢复曝光不足的图像。在低光去雾图像中,峰值信噪比(PSNR)和结构相似性(SSIM)指标均有显著提升,处理后的图片具有更高的整体自然度。实验结果表明:与经典AOD-Net去雾的结果相比,改进算法能够更好地恢复图像的细节和结构,使得去雾后的图像更自然,饱和度和对比度也更加平衡;在RESIDE的SOTS数据集中的室外和室内场景,相较于经典AOD-Net,改进算法的PSNR分别提升了4.5593 dB和4.0656 dB,SSIM分别提升了0.0476和0.0874。展开更多
【目的】设计MobileNet with large convolution Unit(Mobile-LU)模型,解决由于辣椒病害种类复杂和类间差异不明显而造成的病害识别困难、准确率低等问题。【方法】重新构建MobileNetV3的特征提取层,在并行分支单元结构中采用不同尺度...【目的】设计MobileNet with large convolution Unit(Mobile-LU)模型,解决由于辣椒病害种类复杂和类间差异不明显而造成的病害识别困难、准确率低等问题。【方法】重新构建MobileNetV3的特征提取层,在并行分支单元结构中采用不同尺度的分离卷积,增强模型对辣椒病害尺寸差异特征的表达能力;引入Squeeze-and-Excitation(SE)注意力机制,加强模型对病害相关的特征的学习,提高病害识别准确率;同时使用Leaky ReLU激活函数,在负值区域引入小的斜率,避免网络神经元死亡问题;调整输出层节点个数,更好适应辣椒病害分类任务。【结果】Mobile-LU模型的识别准确率达到98.2%,相较于MobilenetV3-small、ResNet34、VGG16、Alexnet、Swin Transformer、MobileVIT等模型分别高出8.9、7.3、4.4、20.4、6.0、8.3个百分点,且Mobile-LU模型在精确率、召回率、特异度以及F1分数等关键性能指标上也均有优势。【结论】Mobile-LU模型对辣椒病害的识别性能更优,能更好满足辣椒病害识别任务。展开更多
针对传统的车辆目标检测算法检测精度低,小尺度目标识别效果差等问题,提出了一种基于YOLOv4(you only look once v4)算法的目标检测方法,以提升对交通场景小目标车辆的检测性能。通过对YOLOv4网络进行再设计,使用MobileNetv2深度可分离...针对传统的车辆目标检测算法检测精度低,小尺度目标识别效果差等问题,提出了一种基于YOLOv4(you only look once v4)算法的目标检测方法,以提升对交通场景小目标车辆的检测性能。通过对YOLOv4网络进行再设计,使用MobileNetv2深度可分离卷积模块代替传统卷积,将CBAM(convolutional block attention module)注意力模块融合到特征提取网络中,在保证模型检测精度的同时减少模型参数。采用PANet-D特征融合网络融合获取到4个尺度特征图深浅层的语义信息,增强对小目标物体的检测能力。通过使用Focal loss优化分类损失函数,加快网络模型的收敛速度。实验结果表明,改进后的网络识别准确率达到96.55%,网络模型大小较原YOLOv4网络降低了92.49 M,同时检测速度比原网络提升了17%,充分证明了本算法的可行性。展开更多
文摘针对海量废弃家电回收图像数据在回收技术中难以有效利用的问题,提出了一种基于ResNet和多尺度卷积的废弃家电回收图像分类模型(Multi-scale and Efficient ResNet,ME-ResNet)。首先,基于残差结构设计了多尺度卷积模块以提升不同尺度特征信息提取能力,在此基础上基于ResNet设计了针对废弃家电回收图像分类问题的ME-ResNet模型;其次,通过用深度可分离卷积替换多尺度卷积中的部分卷积层,实现ME-ResNet模型轻量化;最后,通过与其他卷积神经网络的对比实验,对ME-ResNet及其轻量化模型的性能进行了验证。研究结果表明:相较于经典的卷积神经网络ResNet34,ME-ResNet及其轻量化模型均能有效提升识别准确度,针对构建的数据集,其最优准确率分别提升了1.2%和0.3%,宏精确率分别提升了1.7%和0.9%,宏召回率分别提升了1.3%和0.2%,宏F1分数分别提升了1.5%和0.5%。
文摘经典AOD-Net(All in One Dehazing Network)去雾后的图像存在细节清晰度不足、明暗反差过大和画面昏暗等问题。为了解决这些图像去雾问题,提出一种在AOD-Net基础上改进的多尺度算法。改进的网络结构采用深度可分离卷积替换传统卷积方式,减少了冗余参数量,加快了计算速度并有效地减少了模型的内存占用量,从而提高了算法去雾效率;同时采用多尺度结构在不同尺度上对雾图进行分析和处理,更好地捕捉图像的细节信息,提升了网络对图像细节的处理能力,解决了原算法去雾时存在的细节模糊问题;最后在网络结构中加入金字塔池化模块,用于整合图像不同区域的上下文信息,扩展了网络的感知范围,从而提高网络模型获取有雾图像全局信息的能力,进而改善图像色调失真、细节丢失等问题。此外,引入一个低照度增强模块,通过明确预测噪声实现去噪的目标,从而恢复曝光不足的图像。在低光去雾图像中,峰值信噪比(PSNR)和结构相似性(SSIM)指标均有显著提升,处理后的图片具有更高的整体自然度。实验结果表明:与经典AOD-Net去雾的结果相比,改进算法能够更好地恢复图像的细节和结构,使得去雾后的图像更自然,饱和度和对比度也更加平衡;在RESIDE的SOTS数据集中的室外和室内场景,相较于经典AOD-Net,改进算法的PSNR分别提升了4.5593 dB和4.0656 dB,SSIM分别提升了0.0476和0.0874。
文摘【目的】设计MobileNet with large convolution Unit(Mobile-LU)模型,解决由于辣椒病害种类复杂和类间差异不明显而造成的病害识别困难、准确率低等问题。【方法】重新构建MobileNetV3的特征提取层,在并行分支单元结构中采用不同尺度的分离卷积,增强模型对辣椒病害尺寸差异特征的表达能力;引入Squeeze-and-Excitation(SE)注意力机制,加强模型对病害相关的特征的学习,提高病害识别准确率;同时使用Leaky ReLU激活函数,在负值区域引入小的斜率,避免网络神经元死亡问题;调整输出层节点个数,更好适应辣椒病害分类任务。【结果】Mobile-LU模型的识别准确率达到98.2%,相较于MobilenetV3-small、ResNet34、VGG16、Alexnet、Swin Transformer、MobileVIT等模型分别高出8.9、7.3、4.4、20.4、6.0、8.3个百分点,且Mobile-LU模型在精确率、召回率、特异度以及F1分数等关键性能指标上也均有优势。【结论】Mobile-LU模型对辣椒病害的识别性能更优,能更好满足辣椒病害识别任务。
文摘针对传统的车辆目标检测算法检测精度低,小尺度目标识别效果差等问题,提出了一种基于YOLOv4(you only look once v4)算法的目标检测方法,以提升对交通场景小目标车辆的检测性能。通过对YOLOv4网络进行再设计,使用MobileNetv2深度可分离卷积模块代替传统卷积,将CBAM(convolutional block attention module)注意力模块融合到特征提取网络中,在保证模型检测精度的同时减少模型参数。采用PANet-D特征融合网络融合获取到4个尺度特征图深浅层的语义信息,增强对小目标物体的检测能力。通过使用Focal loss优化分类损失函数,加快网络模型的收敛速度。实验结果表明,改进后的网络识别准确率达到96.55%,网络模型大小较原YOLOv4网络降低了92.49 M,同时检测速度比原网络提升了17%,充分证明了本算法的可行性。