现有的注意力机制仅增强特征图的通道或空间维度,未能充分捕捉细微视觉元素和多尺度特征变化。为解决此问题,提出一种基于局部分块与全局多尺度特征融合的注意力机制(patch and global multiscale attention,PGMA)。将特征图分割成多个...现有的注意力机制仅增强特征图的通道或空间维度,未能充分捕捉细微视觉元素和多尺度特征变化。为解决此问题,提出一种基于局部分块与全局多尺度特征融合的注意力机制(patch and global multiscale attention,PGMA)。将特征图分割成多个小块,分别计算这些小块的注意力得分,增强对局部信息的感知能力。使用一组空洞卷积计算整个特征图的得分,获得全局多尺度信息的权衡。实验中,将PGMA集成到U-Net、DeepLab、SegNet等语义分割网络中,有效提升了它们的分割性能。这表明PGMA在增强CNN性能方面优于当前主流方法。展开更多
文摘针对因遮挡和自相似性导致的从单张RGB图像估计三维手部姿态不精确的问题,提出结合注意力机制和多尺度特征融合的三维手部姿态估计算法。首先,提出结合扩张卷积和CBAM(Convolutional Block Attention Module)注意力机制的感受强化模块(SEM),以替换沙漏网络(HGNet)中的基本块(Basicblock),在扩大感受野的同时增强对空间信息的敏感性,从而提高手部特征的提取能力;其次,设计一种结合SPCNet(Spatial Preserve and Contentaware Network)和Soft-Attention改进的多尺度信息融合模块SS-MIFM(SPCNet and Soft-attention-Multi-scale Information Fusion Module),在充分考虑空间内容感知机制的情况下,有效地聚合多级特征,并显著提高二维手部关键点检测的准确性;最后,利用2.5D姿态转换模块将二维姿态转换为三维姿态,从而避免二维关键点坐标直接回归计算三维姿态信息导致的空间丢失问题。实验结果表明,在InterHand2.6M数据集上,所提算法的双手关节点平均误差(MPJPE)、单手MPJPE和根节点平均误差(MRRPE)分别达到了12.32、9.96和29.57 mm;在RHD(Rendered Hand pose Dataset)上,与InterNet和QMGR-Net算法相比,所提算法的终点误差(EPE)分别降低了2.68和0.38 mm。以上结果说明了所提算法能够更准确地估计手部姿态,且在一些双手交互和遮挡的场景下有更高的鲁棒性。
文摘现有的注意力机制仅增强特征图的通道或空间维度,未能充分捕捉细微视觉元素和多尺度特征变化。为解决此问题,提出一种基于局部分块与全局多尺度特征融合的注意力机制(patch and global multiscale attention,PGMA)。将特征图分割成多个小块,分别计算这些小块的注意力得分,增强对局部信息的感知能力。使用一组空洞卷积计算整个特征图的得分,获得全局多尺度信息的权衡。实验中,将PGMA集成到U-Net、DeepLab、SegNet等语义分割网络中,有效提升了它们的分割性能。这表明PGMA在增强CNN性能方面优于当前主流方法。