针对拥挤场景下的尺度变化导致人群计数任务中精度较低的问题,提出一种基于多尺度注意力网络(MANet)的密集人群计数模型。通过构建多列模型以捕获多尺度特征,促进尺度信息融合;使用双注意力模块获取上下文依赖关系,增强多尺度特征图的信...针对拥挤场景下的尺度变化导致人群计数任务中精度较低的问题,提出一种基于多尺度注意力网络(MANet)的密集人群计数模型。通过构建多列模型以捕获多尺度特征,促进尺度信息融合;使用双注意力模块获取上下文依赖关系,增强多尺度特征图的信息;采用密集连接重用多尺度特征图,生成高质量的密度图,之后对密度图积分得到计数。此外,提出一种新的损失函数,直接使用点注释图进行训练,以减少由高斯滤波生成新的密度图而带来的额外的误差。在公开人群数据集ShanghaiTech Part A/B、UCF-CC-50、UCF-QNRF上的实验结果均达到了最优,表明该网络可以有效处理拥挤场景下的目标多尺度,并且生成高质量的密度图。展开更多
针对小尺度目标在检测时精确率低且易出现漏检和误检等问题,提出一种改进的YOLOv3(You Only Look Once version 3)小目标检测算法。在网络结构方面,为提高基础网络的特征提取能力,使用DenseNet-121密集连接网络替换原Darknet-53网络作...针对小尺度目标在检测时精确率低且易出现漏检和误检等问题,提出一种改进的YOLOv3(You Only Look Once version 3)小目标检测算法。在网络结构方面,为提高基础网络的特征提取能力,使用DenseNet-121密集连接网络替换原Darknet-53网络作为其基础网络,同时修改卷积核尺寸,进一步降低特征图信息的损耗,并且为增强检测模型对小尺度目标的鲁棒性,额外增加第4个尺寸为104×104像素的特征检测层;在对特征图融合操作方面,使用双线性插值法进行上采样操作代替原最近邻插值法上采样操作,解决大部分检测算法中存在的特征严重损失问题;在损失函数方面,使用广义交并比(GIoU)代替交并比(IoU)来计算边界框的损失值,同时引入Focal Loss焦点损失函数作为边界框的置信度损失函数。实验结果表明,改进算法在VisDrone2019数据集上的均值平均精度(mAP)为63.3%,较原始YOLOv3检测模型提高了13.2百分点,并且在GTX 1080 Ti设备上可实现52帧/s的检测速度,对小目标有着较好的检测性能。展开更多
文摘针对拥挤场景下的尺度变化导致人群计数任务中精度较低的问题,提出一种基于多尺度注意力网络(MANet)的密集人群计数模型。通过构建多列模型以捕获多尺度特征,促进尺度信息融合;使用双注意力模块获取上下文依赖关系,增强多尺度特征图的信息;采用密集连接重用多尺度特征图,生成高质量的密度图,之后对密度图积分得到计数。此外,提出一种新的损失函数,直接使用点注释图进行训练,以减少由高斯滤波生成新的密度图而带来的额外的误差。在公开人群数据集ShanghaiTech Part A/B、UCF-CC-50、UCF-QNRF上的实验结果均达到了最优,表明该网络可以有效处理拥挤场景下的目标多尺度,并且生成高质量的密度图。
文摘针对小尺度目标在检测时精确率低且易出现漏检和误检等问题,提出一种改进的YOLOv3(You Only Look Once version 3)小目标检测算法。在网络结构方面,为提高基础网络的特征提取能力,使用DenseNet-121密集连接网络替换原Darknet-53网络作为其基础网络,同时修改卷积核尺寸,进一步降低特征图信息的损耗,并且为增强检测模型对小尺度目标的鲁棒性,额外增加第4个尺寸为104×104像素的特征检测层;在对特征图融合操作方面,使用双线性插值法进行上采样操作代替原最近邻插值法上采样操作,解决大部分检测算法中存在的特征严重损失问题;在损失函数方面,使用广义交并比(GIoU)代替交并比(IoU)来计算边界框的损失值,同时引入Focal Loss焦点损失函数作为边界框的置信度损失函数。实验结果表明,改进算法在VisDrone2019数据集上的均值平均精度(mAP)为63.3%,较原始YOLOv3检测模型提高了13.2百分点,并且在GTX 1080 Ti设备上可实现52帧/s的检测速度,对小目标有着较好的检测性能。