期刊文献+
共找到29篇文章
< 1 2 >
每页显示 20 50 100
基于改进YOLOv3模型的软包装食品自动识别方法 被引量:4
1
作者 张志凯 韩红章 +1 位作者 赵雪芊 李忠 《食品与机械》 CSCD 北大核心 2023年第5期95-100,共6页
目的:解决现有包装食品自动识别方法存在的识别精度差、效率低等问题。方法:基于软包装食品自动识别系统,提出一种改进的YOLOv3模型用于软包装食品的自动识别。将Kmeans++算法引入模型中解决小目标不敏感问题,将Mish激活函数引入模型中... 目的:解决现有包装食品自动识别方法存在的识别精度差、效率低等问题。方法:基于软包装食品自动识别系统,提出一种改进的YOLOv3模型用于软包装食品的自动识别。将Kmeans++算法引入模型中解决小目标不敏感问题,将Mish激活函数引入模型中提高识别的准确性,将注意力机制Senet引入模型中提高特征提取能力。通过试验分析了该识别模型的性能,验证了模型的优越性。结果:与常规识别方法相比,所提方法能更准确、高效地实现软包装食品的自动识别,识别准确率为95.40%,识别效率为23.80帧/s,满足包装食品识别的需要。结论:通过对现有食品识别模型的优化,可以有效提高识别模型的性能。 展开更多
关键词 软包装食品 自动识别 yolov3模型 Kmeans++算法 Mish激活函数 注意力机制Senet
在线阅读 下载PDF
基于改进YOLOv3模型的玉米叶片病虫害检测与识别研究 被引量:37
2
作者 徐会杰 黄仪龙 刘曼 《南京农业大学学报》 CAS CSCD 北大核心 2022年第6期1276-1285,共10页
[目的]本文针对传统农作物叶片病虫害识别模型YOLOv3存在的检测实时性与鲁棒性差以及漏检率高的问题,提出了一种改进的玉米叶片病虫害检测模型——YOLOv3-Corn。[方法]该模型采用Darknet-53作为特征提取网络,将网络输出的8倍特征图与新... [目的]本文针对传统农作物叶片病虫害识别模型YOLOv3存在的检测实时性与鲁棒性差以及漏检率高的问题,提出了一种改进的玉米叶片病虫害检测模型——YOLOv3-Corn。[方法]该模型采用Darknet-53作为特征提取网络,将网络输出的8倍特征图与新加入的4倍下采样特征图进行拼接,建立了104104尺度的检测层;在前期构建的包含6个类别玉米常见病虫害数据集中,利用K-means++聚类算法选取12个先验框并分别匹配到4个不同尺度的检测层中进行目标识别。[结果]在YOLOv3系列模型中,YOLOv3-Corn模型的检测精度均值(mAP)、召回率(Recall)达到了93.31%和93.08%,与YOLOv3模型相比分别提高了4.03%和9.78%。在非YOLO系列模型中,YOLOv3-Corn模型平衡了Faster R-CNN模型的检测速度不足和RetinaNet模型的召回率、精确度不足的问题。[结论]在保证提取相同特征参数、检测时效性好的前提下,YOLOv3-Corn模型有效提高了识别精度。 展开更多
关键词 玉米叶片 病虫害检测 目标检测 yolov3模型 Darknet-53
在线阅读 下载PDF
基于YOLOv3模型压缩的交通标志实时检测算法 被引量:11
3
作者 鲍敬源 薛榕刚 《计算机工程与应用》 CSCD 北大核心 2020年第23期202-210,共9页
YOLOv3目标检测算法检测精度高,检测速度快,能够实现对交通标志的实时检测。但由于YOLOv3模型要求设备具有较强的运算能力及较大的内存,难以直接部署在车辆等资源受限平台上。针对此问题,提出了一种Strong Tiny-YOLOv3目标检测模型,该... YOLOv3目标检测算法检测精度高,检测速度快,能够实现对交通标志的实时检测。但由于YOLOv3模型要求设备具有较强的运算能力及较大的内存,难以直接部署在车辆等资源受限平台上。针对此问题,提出了一种Strong Tiny-YOLOv3目标检测模型,该模型通过引入FireModule层进行通道变换,在减小模型参数的同时能够加深模型深度。同时,模型在FireModule层之间加入short-cut来增强网络的特征提取能力。实验结果表明,模型在保持较高检测精度的前提下,能够极大减小YOLOv3模型对设备的依赖。与Tiny-YOLOv3模型相比,Strong Tiny-YOLOv3模型的参数量减少了87.3%,实际内存大小减少了77.9%,在GeForce 940MX上的检测速度提高了22.8%,且在GTSDB和CCTSDB交通标志数据集上的检测mAP分别提高了12%和3.8%。 展开更多
关键词 yolov3模型 Tiny-yolov3模型 目标检测 模型压缩 交通标志
在线阅读 下载PDF
面向合成孔径雷达图像任意方向舰船检测的改进YOLOv3模型 被引量:10
4
作者 徐英 谷雨 +2 位作者 彭冬亮 刘俊 陈华杰 《兵工学报》 EI CAS CSCD 北大核心 2021年第8期1698-1707,共10页
为实现合成孔径雷达(SAR)图像舰船检测能同时输出目标位置和方位角估计信息,提出基于改进YOLOv3的任意方向舰船目标检测模型。定义有利于模型参数回归稳定性的角度范围,根据垂直框和旋转框预测结果定义多任务损失函数。通过融合垂直框... 为实现合成孔径雷达(SAR)图像舰船检测能同时输出目标位置和方位角估计信息,提出基于改进YOLOv3的任意方向舰船目标检测模型。定义有利于模型参数回归稳定性的角度范围,根据垂直框和旋转框预测结果定义多任务损失函数。通过融合垂直框和旋转框预测结果进行目标方位角估计校正,以进一步提高检测性能。采用SAR舰船目标检测数据集(SSDD+)和高分辨率SAR图像数据集(HRSID)分别进行改进模型的性能测试和迁移测试。实验结果表明:对于SSDD+,当交并比为0.5时平均精度均值mAP_(0.5)达到了0.841;对HRSID进行迁移测试时,mAP_(0.5)能够达到0.530;当网络输入尺寸为416×416时处理一帧图像耗时约为25 ms;采用高分辨率可见光舰船数据集(HRSC2016)进行改进模型的适用性测试,mAP_(0.5)为0.888,超过了部分已知模型的精度;该改进模型适用于纯海洋背景下SAR图像中的舰船目标检测,能够满足舰船目标检测的实时性需求。 展开更多
关键词 合成孔径雷达图像 舰船目标检测 yolov3模型 方位角估计 多任务损失
在线阅读 下载PDF
基于YOLOv3模型的人脸检测与头部姿态估计融合算法 被引量:5
5
作者 李永杰 周桂红 刘博 《广西师范大学学报(自然科学版)》 CAS 北大核心 2022年第3期95-103,共9页
针对头部姿态估计中的人脸检测框尺寸难于学习问题和将人脸检测、头部姿态估计分为两阶段的模型中流程复杂、耦合程度高、误差累积严重的问题,本文提出一种基于YOLOv3模型的人脸检测与头部姿态估计融合算法。通过K-means聚类方法对训练... 针对头部姿态估计中的人脸检测框尺寸难于学习问题和将人脸检测、头部姿态估计分为两阶段的模型中流程复杂、耦合程度高、误差累积严重的问题,本文提出一种基于YOLOv3模型的人脸检测与头部姿态估计融合算法。通过K-means聚类方法对训练集中人脸区域的尺寸进行聚类,得出9组聚类结果,以模拟真实情况下人脸区域的尺寸和比例;通过拓展YOLOv3模型,实现人脸检测和头部姿态估计同时进行,并在3个不同层次的特征图上进行人脸检测和头部姿态估计,实现对特征图的多尺度检测,充分利用了特征图中的信息;采用端到端模式进行训练,简化头部姿态估计任务的处理流程。在CAS-PEAL-R1姿态子集上取得99.23%的预测准确率,在Pointing′04数据集上pitch和yaw方向分别取得了3.79°和4.24°的平均绝对误差。结果表明,本模型在满足实时性要求的前提下,能够出色完成人脸区域检测与头部姿态估计任务,充分证实本文方法的可靠性与实用性。 展开更多
关键词 头部姿态估计 yolov3模型 K-MEANS 多尺度检测 深度学习
在线阅读 下载PDF
基于改进YOLOv3模型的侧扫声纳沉船目标检测 被引量:1
6
作者 汤寓麟 张卫东 +2 位作者 李凡 李厚朴 纪兵 《海军工程大学学报》 CAS 北大核心 2022年第3期62-67,共6页
针对使用Faster R-CNN模型进行侧扫声纳图像沉船目标检测存在耗时长、效率低以及小目标漏警率高等问题,引入YOLOv3模型并结合侧扫声纳沉船图像数据集特点对模型进行了改进。首先,进行浅层特征融合的多尺度训练,从而增加沉船目标浅层特... 针对使用Faster R-CNN模型进行侧扫声纳图像沉船目标检测存在耗时长、效率低以及小目标漏警率高等问题,引入YOLOv3模型并结合侧扫声纳沉船图像数据集特点对模型进行了改进。首先,进行浅层特征融合的多尺度训练,从而增加沉船目标浅层特征在检测中所占比重;然后,使用K-means聚类算法重新设置先验框参数及大小,提高小目标检测精度;最后,采用二分类交叉熵函数改进YOLOv3算法中的损失函数,提高模型的收敛速度和泛化能力。实验结果表明:相比Faster R-CNN模型和传统YOLOv3模型,改进YOLOv3模型的AP值达到89.18%,分别提高了1.46%和0.57%;调和平均值F1达到89.08%,分别提高了2.33%和1.04%;检测图片耗时时间为Faster R-CNN模型的3/50,极大地提高了检测效率。该研究结果验证了改进的YOLOv3模型具有更高的检测精度和效率,对海底沉船搜救具有一定的实际指导意义。 展开更多
关键词 侧扫声纳沉船目标 改进的yolov3模型 浅层特征融合 K-MEANS聚类算法 二分类交叉熵
在线阅读 下载PDF
改进YOLOv3模型在无人机巡检输电线路部件缺陷检测中的应用研究 被引量:34
7
作者 叶翔 孙嘉兴 +3 位作者 甘永叶 冉倩 吴达 吕泽敏 《电测与仪表》 北大核心 2023年第5期85-91,共7页
针对传统输电线路无人机巡检图像检测方法存在的精度低、计算时间长和训练样本少等问题,提出了一种用于输电线路部件绝缘子缺陷识别的改进YOLOv3模型。引入K-means++算法解决小目标不敏感问题,引入Focalloss函数解决样本不均衡问题,引入... 针对传统输电线路无人机巡检图像检测方法存在的精度低、计算时间长和训练样本少等问题,提出了一种用于输电线路部件绝缘子缺陷识别的改进YOLOv3模型。引入K-means++算法解决小目标不敏感问题,引入Focalloss函数解决样本不均衡问题,引入Mish激活函数提高模型精度,引入注意力机制Senet提高特征提取性能。通过对改进前后模型性能的比较分析,验证了该方法的优越性。结果表明,与传统的检测方法相比,所提方法在检测速度上能够满足实时检测的需要,且检测精度最优,检测时间为0.079 s,检测平均准确度均值为94.40%。该研究能够满足输电线路无人机巡检图像缺陷自动检测的需要。 展开更多
关键词 输电线路 无人机巡检图像 绝缘子缺陷 yolov3模型 注意力机制
在线阅读 下载PDF
基于改进YOLOv3模型的车辆前方路面坑洼检测 被引量:9
8
作者 胡均平 黄强 +2 位作者 张洪伟 向思平 宋菲菲 《传感器与微系统》 CSCD 北大核心 2022年第12期130-133,138,共5页
首先,对道路坑洼图片进行预处理以获得坑洼数据集Pothole-set;其次,将YOLOv3的激活函数修改为Mish激活函数,以提高模型准确性和泛化能力;接着,将YOLOv3的3个输出尺度进行融合以减小复杂度;然后,使用K-Means方法对坑洼数据集边界框尺寸... 首先,对道路坑洼图片进行预处理以获得坑洼数据集Pothole-set;其次,将YOLOv3的激活函数修改为Mish激活函数,以提高模型准确性和泛化能力;接着,将YOLOv3的3个输出尺度进行融合以减小复杂度;然后,使用K-Means方法对坑洼数据集边界框尺寸进行聚类,同时,对坑洼数据集进行网格划分,获得最终的输出特征图;最后,将余弦退火、Mixup、标签平滑技术应用于训练过程中以提高检测精度,获得最终的坑洼检测模型YOLOv3-Pt。实验结果表明:相比于YOLOv3,YOLOv3-Pt在复杂环境下对坑洼的检测精度提升了13.99%,能够满足坑洼检测精度的需要。 展开更多
关键词 坑洼检测 Mish激活函数 K-MEANS聚类 余弦退火 Mixup方法 yolov3-Pt模型
在线阅读 下载PDF
改进YOLOv3的无纺布表面缺陷检测研究 被引量:2
9
作者 铁瑛 朱空军 +1 位作者 朱振伟 赵华东 《机械设计与制造》 北大核心 2024年第11期362-365,共4页
针对在无纺布表面缺陷检测中存在小缺陷目标漏检及识别率不高的问题,提出了一种改进YOLOv3的无纺布表面缺陷检测算法。首先在网络模型当中生成一个新的特征图层,来提取更多小缺陷目标的特征,其次引入K-Means++算法对聚类先验框中心点的... 针对在无纺布表面缺陷检测中存在小缺陷目标漏检及识别率不高的问题,提出了一种改进YOLOv3的无纺布表面缺陷检测算法。首先在网络模型当中生成一个新的特征图层,来提取更多小缺陷目标的特征,其次引入K-Means++算法对聚类先验框中心点的提取进行改进,选取更为合适的Anchor Box,使定位更加精准,提高检测精度。最后,在自制的无纺布表面缺陷数据集上进行对比检测,研究结果表明:改进后的YOLOv3算法在测试集上的mAP值为85.83%,比原始的YOLOv3算法提高了6.99%,单张图片的平均检测时间为0.168s,与原始算法检测时间基本持平,检测性能也优于Faster R-CNN。 展开更多
关键词 无纺布缺陷 目标检测 改进yolov3模型 K-Means++
在线阅读 下载PDF
基于改进YOLOv3的玉米病害识别方法 被引量:2
10
作者 张继成 黄向党 《中国农机化学报》 北大核心 2024年第7期269-275,共7页
为提高玉米作物病害叶片识别模型的准确性,提出改进YOLOv3的玉米病害识别方法。首先,为获得更深的玉米疾病特征,通过更改浅特征图比例和添加第四个检测层,分别修改YOLOv3网络体系结构为YOLOv3-M1和YOLOv3-M2。然后,采用改进的K-means算... 为提高玉米作物病害叶片识别模型的准确性,提出改进YOLOv3的玉米病害识别方法。首先,为获得更深的玉米疾病特征,通过更改浅特征图比例和添加第四个检测层,分别修改YOLOv3网络体系结构为YOLOv3-M1和YOLOv3-M2。然后,采用改进的K-means算法进行聚类,获得的锚框倾向于数据集的真实边界框。最后,为每个类别添加一个平衡因子,并对不同类别中样本的难度进行加权来修改损失函数,使得模型能够找到边界盒预测与类别预测之间的最佳点,使算法获得最佳检测效果。结果表明,改进的YOLOv3-M1和YOLOv3-M2模型在测试集上的准确率分别高达95.63%和97.59%,相比YOLOv3模型,识别准确率分别提高4.15%和6.28%,识别准确率在玉米数据集上得到大幅度提高。 展开更多
关键词 玉米 深度学习 病害识别 yolov3模型 损失函数
在线阅读 下载PDF
YOLOv3-ADS:一种基于YOLOv3的深度学习目标检测压缩模型 被引量:7
11
作者 宋欣 李奇 +1 位作者 解婉君 李宁 《东北大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第5期609-615,共7页
基于原有YOLOv3模型占用存储空间较大,所需初始化数据集样本和参数较多的问题,本文提出了一种基于YOLOv3的深度学习目标检测压缩模型YOLOv3-ADS.该模型使用拼接、叠加等方法对较少的有代表性的初始数据集进行数据增强,引入了DIoU损失函... 基于原有YOLOv3模型占用存储空间较大,所需初始化数据集样本和参数较多的问题,本文提出了一种基于YOLOv3的深度学习目标检测压缩模型YOLOv3-ADS.该模型使用拼接、叠加等方法对较少的有代表性的初始数据集进行数据增强,引入了DIoU损失函数,提升了目标检测的准确度.最后,通过稀疏训练和剪枝率阈值设置实现了YOLOv3-ADS模型的压缩处理,减少了模型实现过程中的冗余节点、参数数量和所需存储空间.实验结果表明,提出的YOLOv3-ADS压缩模型与已有的YOLOv3模型相比,平均精度值(mAP值)提升了约30%,由0.6418提升至0.8368,需设置参数量下降了96.6%,由原来的63.0 MB降至2.2 MB,在保证了较高目标检测准确率的同时,YOLOv3-ADS模型所需存储空间下降了96.5%,由252 MB降至仅需8.81 MB. 展开更多
关键词 目标检测 yolov3-ADS模型 深度学习 yolov3模型 压缩模型
在线阅读 下载PDF
基于改进YOLOv3网络模型的茶草位置检测算法 被引量:8
12
作者 王根 江晓明 +2 位作者 黄峰 方迪 张宇钦 《中国农机化学报》 北大核心 2023年第3期199-207,共9页
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建... 精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。 展开更多
关键词 茶园植保机械 茶草检测 yolov3网络模型 GIoU损失
在线阅读 下载PDF
基于改进YOLOv3的红外目标检测方法 被引量:17
13
作者 秦鹏 唐川明 +2 位作者 刘云峰 张建林 徐智勇 《计算机工程》 CAS CSCD 北大核心 2022年第3期211-219,共9页
针对红外场景中行人、车辆等目标识别率低且存在复杂背景干扰的问题,提出一种基于Effi-YOLOv3模型的红外目标检测方法。将轻量高效的EfficientNet骨干网络与YOLOv3网络相结合,提升网络模型的运行速度。通过模拟人类视觉的感受野机制,引... 针对红外场景中行人、车辆等目标识别率低且存在复杂背景干扰的问题,提出一种基于Effi-YOLOv3模型的红外目标检测方法。将轻量高效的EfficientNet骨干网络与YOLOv3网络相结合,提升网络模型的运行速度。通过模拟人类视觉的感受野机制,引入改进的感受野模块,在几乎不增加计算量的情况下大幅增强网络有效感受野。基于可变形卷积和动态激活函数构建DBD和CBD结构,提升模型特征编码的灵活性,扩大模型容量。选择兼顾预测框与真值框中心点距离、重叠率和长宽比偏差的CIoU作为损失函数,更好地反映预测框与真值框的重叠程度,加快预测框回归速度。实验结果表明,该方法在FLIR数据集上的平均精度均值达到70.8%,Effi-YOLOv3模型参数量仅为YOLOv3模型的33.3%,对于红外场景中的目标检测效果更优。 展开更多
关键词 yolov3模型 红外目标检测 复杂背景 可变形卷积 动态激活函数
在线阅读 下载PDF
结合反残差块和YOLOv3的目标检测法 被引量:14
14
作者 焦天驰 李强 +1 位作者 林茂松 贺贤珍 《传感器与微系统》 CSCD 2019年第9期144-146,156,共4页
为了提高目标检测算法的实时性,提出了一种基于反残差块的轻量级目标检测方法,并将其用于行人检测。利用深度可分离卷积减少模型的参数量和卷积过程的计算量;在深度可分离卷积的基础上构造反残差块,提取高维特征。采用多尺度预测和特征... 为了提高目标检测算法的实时性,提出了一种基于反残差块的轻量级目标检测方法,并将其用于行人检测。利用深度可分离卷积减少模型的参数量和卷积过程的计算量;在深度可分离卷积的基础上构造反残差块,提取高维特征。采用多尺度预测和特征融合相结合的方法,更好地利用深层特征图的语义信息,使得模型对图像中小尺度的行人目标有较好的表征能力。运用K-means聚类方法对INRIA数据集中样本进行聚类分析。通过对比试验表明:改进后的YOLOv3方法在INRIA数据集上能够有效地检测小尺度的目标,与原方法相比在精度上提升了4.26%、召回率提升5%且检测每张图片所需的时间减少了33.6%。 展开更多
关键词 yolov3模型 深度可分离卷积 反残差块 K均值算法
在线阅读 下载PDF
基于改进YOLOv3的手势实时识别方法 被引量:8
15
作者 张强 张勇 +2 位作者 刘芝国 周文军 刘佳慧 《计算机工程》 CAS CSCD 北大核心 2020年第3期237-245,253,共10页
针对基于人工建模方式的手势识别方法准确率低、速度慢的问题,提出一种基于改进YOLOv3的静态手势实时识别方法。采用卷积神经网络YOLOv3模型,将通过Kinect设备采集的IR、Registration of RGB、RGB和Depth图像代替常用的RGB图像作为数据... 针对基于人工建模方式的手势识别方法准确率低、速度慢的问题,提出一种基于改进YOLOv3的静态手势实时识别方法。采用卷积神经网络YOLOv3模型,将通过Kinect设备采集的IR、Registration of RGB、RGB和Depth图像代替常用的RGB图像作为数据集,并融合四类图像的识别结果以提高识别准确率。采用k-means聚类算法对YOLOv3中的初始候选框参数进行优化,从而加快识别速度。在此基础上,利用迁移学习的方法对基础特征提取器进行改进,以缩短模型的训练时间。实验结果表明,该方法对流式视频静态手势的平均识别准确率为99.8%,识别速度高达52 FPS,模型训练时间为12 h,与Faster R-CNN、SSD、YOLOv2等深度学习方法相比,其识别精度更高,识别速度更快。 展开更多
关键词 手势识别 yolov3模型 Kinect设备 聚类算法 迁移学习
在线阅读 下载PDF
基于改进YOLOv3的装甲车辆检测方法 被引量:8
16
作者 丛眸 张平 王宁 《兵器装备工程学报》 CAS CSCD 北大核心 2021年第4期258-262,共5页
为了准确检测出装甲车辆目标,提出了一种基于改进YOLOv3的装甲车辆检测方法。收集不同目标类型、尺度、遮挡等条件下的装甲车辆图像并对其进行标注,得到装甲车辆目标检测数据集;利用k-means++算法计算出适用于数据集的锚框;在YOLOv3的... 为了准确检测出装甲车辆目标,提出了一种基于改进YOLOv3的装甲车辆检测方法。收集不同目标类型、尺度、遮挡等条件下的装甲车辆图像并对其进行标注,得到装甲车辆目标检测数据集;利用k-means++算法计算出适用于数据集的锚框;在YOLOv3的特征提取网络中集成空间金字塔池化模块来丰富卷积特征的表达能力;通过卷积特征聚合机制并对多层级的卷积特征进行融合,从而得到改进的YOLOv3模型。在装甲车辆目标检测数据集上进行了训练与测试,结果表明:改进后的YOLOv3方法能够有效提高目标检测的性能,与原YOLOv3方法相比,本文方法在查准率和查全率上分别提升了14.5%和4.2%,平均精确度提升了5.3%,同时还能满足实时性需求。 展开更多
关键词 目标检测 yolov3模型 空间金字塔池化 特征聚合 装甲车辆
在线阅读 下载PDF
基于图像和YOLOv3的番茄果实表型参数计算及重量模拟 被引量:1
17
作者 张寻梦 赵子皓 江晓东 《江苏农业科学》 北大核心 2023年第10期193-201,共9页
为了便捷准确地计算番茄果实长度、宽度和投影面积表型参数并模拟果实重量,以番茄粉冠F 1为试验材料,利用YOLOv3深度学习模型检测和裁切番茄果实图像,利用像素计算来分割番茄果实区域,将计算果实区域的6个特征参数输入线性回归模型、BP... 为了便捷准确地计算番茄果实长度、宽度和投影面积表型参数并模拟果实重量,以番茄粉冠F 1为试验材料,利用YOLOv3深度学习模型检测和裁切番茄果实图像,利用像素计算来分割番茄果实区域,将计算果实区域的6个特征参数输入线性回归模型、BP神经网络模型、支持向量机(SVM)模型中反演果实重量,以期从图像中获取番茄果实表型参数及重量模拟结果。结果表明,YOLOv3模型对番茄果实检测的平均精确度(AP)为90.06%;用果实长度、宽度、投影面积计算的平均相对误差分别为3.37%、5.65%、5.49%;用线性回归模型、BP神经网络模型、SVM模型模拟得到的果实重量的平均相对误差分别为44.68%、17.38%、6.45%。研究结果证实,从图像处理中获取番茄果实长度、宽度、投影面积表型参数是可行的,SVM模型对番茄果实重量的模拟精度较高。 展开更多
关键词 番茄 果实 表型参数 重量 yolov3模型 支持向量机模型
在线阅读 下载PDF
大数据驱动的非球面光学表面缺陷检测研究
18
作者 彭雪梅 黄建军 《激光杂志》 北大核心 2025年第4期252-256,共5页
光学技术的快速发展使非球面光学元件在成像、通信等领域的应用日益广泛,其表面缺陷检测成为确保产品质量的关键环节。为满足更高精度的检测需求,设计了大数据驱动的非球面光学表面缺陷检测方法。在大数据驱动下,设计非球面光学表面图... 光学技术的快速发展使非球面光学元件在成像、通信等领域的应用日益广泛,其表面缺陷检测成为确保产品质量的关键环节。为满足更高精度的检测需求,设计了大数据驱动的非球面光学表面缺陷检测方法。在大数据驱动下,设计非球面光学表面图像采集装置,由显微光学成像系统、分光棱镜、光纤照明、机械调整台、电动转台构成,实施非球面光学表面图像的大数据采集。在大数据驱动下,采用小波阈值去噪方法对采集的非球面光学表面缺陷图像实施去噪处理。选定YOLOv3作为基础架构,对三个方向实施针对性改进,通过改进后的YOLOv3模型实现非球面光学表面缺陷检测。测试结果表明,所设计的方法对于5种实验元件的表面缺陷平均尺寸测量偏差较低,尤其是对于抛光非球面棱镜的表面缺陷,其平均尺寸测量偏差最低。此外,该方法对于五种实验元件的表面伪缺陷响应系数较低,意味着它不容易受到伪缺陷的影响。 展开更多
关键词 大数据技术 非球面光学元件 表面缺陷检测 改进yolov3模型 CBAM混合注意力机制
在线阅读 下载PDF
基于模型压缩与感受野增强的下茧实时检测 被引量:4
19
作者 张印辉 杨宏宽 +1 位作者 刘强 何自芬 《纺织学报》 EI CAS CSCD 北大核心 2021年第11期29-38,共10页
针对目前选茧时下茧检测主要依赖人工目测,工作效率低的问题,提出一种基于锚点框参数预置、通道剪枝和嵌入感受野模块改进的轻量化下茧实时检测模型。首先,通过K-means聚类分析出适用于下茧检测的锚点框以预置YOLOv3模型参数;然后,根据... 针对目前选茧时下茧检测主要依赖人工目测,工作效率低的问题,提出一种基于锚点框参数预置、通道剪枝和嵌入感受野模块改进的轻量化下茧实时检测模型。首先,通过K-means聚类分析出适用于下茧检测的锚点框以预置YOLOv3模型参数;然后,根据预设的剪枝率对稀疏化训练后的模型进行基于批量正则化层缩放因子的模型剪枝,以此压缩模型的大小;最后,在剪枝后的模型中嵌入感受野模块,使模型的感受野变大,增强模型的辨别能力和鲁棒性。实验结果表明:提出的下茧实时检测模型大小为46.90 M,平均检测速度达到50.18帧/s,平均检测精度为96.80%,较原YOLOv3模型参数压缩了79.96%,平均检测速度提高了60.63%,平均检测精度提高了3.20%。 展开更多
关键词 蚕茧 下茧检测 yolov3模型 聚类分析 模型压缩 感受野模块
在线阅读 下载PDF
基于机器视觉的寒地水稻田间除草机器人精准作业系统研究
20
作者 吉毅 王娟 《北方水稻》 2025年第6期183-187,共5页
传统除草机器人作业系统对于杂草的辨识不够精准,导致杂草去除召回率、误检抑制率较低。为此设计基于机器视觉的寒地水稻田间除草机器人精准作业系统。设计由图像处理器、摄像头等构成的机器视觉模块,采集寒地水稻田间图像。在寒地水稻... 传统除草机器人作业系统对于杂草的辨识不够精准,导致杂草去除召回率、误检抑制率较低。为此设计基于机器视觉的寒地水稻田间除草机器人精准作业系统。设计由图像处理器、摄像头等构成的机器视觉模块,采集寒地水稻田间图像。在寒地水稻田间杂草识别模块中,通过YOLOv3卷积神经网络模型实现采集的寒地水稻田间图像中的杂草识别。采用全电动四轮驱动底盘作为除草机器人的移动装置,基于杂草识别预测框实现除草路径导航。为除草机器人配备灵活的机械臂,搭载激光发射器,基于杂草识别预测框实现除草作业。实例测试结果表明,设计系统能够在寒地水稻田间实现较为精准的除草机器人作业,完成大部分杂草的清除工作,其残留的杂草较少,邻株误伤情况也较少;设计系统的杂草去除召回率整体高于0.9,说明系统对寒地小目标杂草的漏检率低,适应性强;设计系统的误检抑制率整体高于0.85,说明系统对水稻与杂草的形态差异区分能力强,能够减少误除草现象。 展开更多
关键词 机器视觉 寒地水稻田间除草机器人 精准作业 yolov3卷积神经网络模型 全电动四轮驱动底盘
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部