摘要
针对人群计数在密集场景下存在背景复杂、尺度变化大等问题,提出了一种结合全局-局部注意力的弱监督密集场景人群计数模型——GLCrowd。首先,设计了一种结合深度卷积的局部注意力模块,通过上下文权重增强局部特征,同时结合特征权重共享获得高频局部信息。其次,利用Vision Transformer(ViT)的自注意力机制捕获低频全局信息。最后,将全局与局部注意力有效融合,并通过回归令牌来完成计数。在Shanghai Tech PartA、Shanghai Tech PartB、UCF-QNRF以及UCF_CC_50数据集上进行了模型测试,MAE分别达到了64.884、8.958、95.523、209.660,MSE分别达到了104.411、16.202、173.453、282.217。结果表明,提出的GLCrowd网络模型在密集场景下的人群计数中具有较好的性能。
To address the challenges of crowd counting in dense scenes,such as complex backgrounds and scale variations,we propose a weakly supervised crowd counting model for dense scenes,named GLCrowd,which integrates global and local attention mechanisms.First,we design a local attention module combined with deep convolution to enhance local features through context weights while leveraging feature weight sharing to capture high-frequency local information.Second,the Vision Transformer(ViT)self-attention mechanism is used to capture low-frequency global information.Finally,the global and local attention mechanisms are effectively fused,and counting is accomplished through a regression token.The model was tested on the Shanghai Tech Part A,Shanghai Tech Part B,UCF-QNRF,and UCF_CC_50 datasets,achieving MAE values of 64.884,8.958,95.523,and 209.660,and MSE values of 104.411,16.202,173.453,and 282.217,respectively.The results demonstrate that the proposed GLCrowd model exhibits strong performance in crowd counting within dense scenes.
作者
张红民
田钱前
颜鼎鼎
卜令宇
Zhang Hongmin;Tian Qianqian;Yan Dingding;Bu Lingyu(School of Electrical and Electronic Engineering,Chongqing University of Technology,Chongqing 400054,China)
出处
《光电工程》
CAS
CSCD
北大核心
2024年第10期75-86,共12页
Opto-Electronic Engineering
基金
重庆市自然科学基金面上项目(cstc2021jcyj-msxmX0525,CSTB2022NSCQ-MSX0786,CSTB2023NSCQ-MSX0911)
重庆市教委科学技术研究项目(KJQN202201109)。
作者简介
通信作者:张红民(1970-),男,博士,教授,主要研究方向为图像处理与模式识别。E-mail:hmzhang@cqut.edu.cn;田钱前(1999-),女,硕士研究生,主要研究方向为图像处理、深度学习。E-mail:qianqiantian@stu.cqut.edu.cn;颜鼎鼎(2000-),女,硕士研究生,主要研究方向为图像处理、计算机视觉。E-mail:ydd0010@stu.cqut.edu.cn;卜令宇(1999-),男,硕士研究生,主要研究方向为图像处理。E-mail:bulingyuuuu@163.com。