期刊文献+
共找到57篇文章
< 1 2 3 >
每页显示 20 50 100
BDMFuse:Multi-scale network fusion for infrared and visible images based on base and detail features
1
作者 SI Hai-Ping ZHAO Wen-Rui +4 位作者 LI Ting-Ting LI Fei-Tao Fernando Bacao SUN Chang-Xia LI Yan-Ling 《红外与毫米波学报》 北大核心 2025年第2期289-298,共10页
The fusion of infrared and visible images should emphasize the salient targets in the infrared image while preserving the textural details of the visible images.To meet these requirements,an autoencoder-based method f... The fusion of infrared and visible images should emphasize the salient targets in the infrared image while preserving the textural details of the visible images.To meet these requirements,an autoencoder-based method for infrared and visible image fusion is proposed.The encoder designed according to the optimization objective consists of a base encoder and a detail encoder,which is used to extract low-frequency and high-frequency information from the image.This extraction may lead to some information not being captured,so a compensation encoder is proposed to supplement the missing information.Multi-scale decomposition is also employed to extract image features more comprehensively.The decoder combines low-frequency,high-frequency and supplementary information to obtain multi-scale features.Subsequently,the attention strategy and fusion module are introduced to perform multi-scale fusion for image reconstruction.Experimental results on three datasets show that the fused images generated by this network effectively retain salient targets while being more consistent with human visual perception. 展开更多
关键词 infrared image visible image image fusion encoder-decoder multi-scale features
在线阅读 下载PDF
Ship recognition based on HRRP via multi-scale sparse preserving method
2
作者 YANG Xueling ZHANG Gong SONG Hu 《Journal of Systems Engineering and Electronics》 SCIE CSCD 2024年第3期599-608,共10页
In order to extract the richer feature information of ship targets from sea clutter, and address the high dimensional data problem, a method termed as multi-scale fusion kernel sparse preserving projection(MSFKSPP) ba... In order to extract the richer feature information of ship targets from sea clutter, and address the high dimensional data problem, a method termed as multi-scale fusion kernel sparse preserving projection(MSFKSPP) based on the maximum margin criterion(MMC) is proposed for recognizing the class of ship targets utilizing the high-resolution range profile(HRRP). Multi-scale fusion is introduced to capture the local and detailed information in small-scale features, and the global and contour information in large-scale features, offering help to extract the edge information from sea clutter and further improving the target recognition accuracy. The proposed method can maximally preserve the multi-scale fusion sparse of data and maximize the class separability in the reduced dimensionality by reproducing kernel Hilbert space. Experimental results on the measured radar data show that the proposed method can effectively extract the features of ship target from sea clutter, further reduce the feature dimensionality, and improve target recognition performance. 展开更多
关键词 ship target recognition high-resolution range profile(HRRP) multi-scale fusion kernel sparse preserving projection(MSFKSPP) feature extraction dimensionality reduction
在线阅读 下载PDF
Underwater Image Enhancement Based on Multi-scale Adversarial Network
3
作者 ZENG Jun-yang SI Zhan-jun 《印刷与数字媒体技术研究》 CAS 北大核心 2024年第5期70-77,共8页
In this study,an underwater image enhancement method based on multi-scale adversarial network was proposed to solve the problem of detail blur and color distortion in underwater images.Firstly,the local features of ea... In this study,an underwater image enhancement method based on multi-scale adversarial network was proposed to solve the problem of detail blur and color distortion in underwater images.Firstly,the local features of each layer were enhanced into the global features by the proposed residual dense block,which ensured that the generated images retain more details.Secondly,a multi-scale structure was adopted to extract multi-scale semantic features of the original images.Finally,the features obtained from the dual channels were fused by an adaptive fusion module to further optimize the features.The discriminant network adopted the structure of the Markov discriminator.In addition,by constructing mean square error,structural similarity,and perceived color loss function,the generated image is consistent with the reference image in structure,color,and content.The experimental results showed that the enhanced underwater image deblurring effect of the proposed algorithm was good and the problem of underwater image color bias was effectively improved.In both subjective and objective evaluation indexes,the experimental results of the proposed algorithm are better than those of the comparison algorithm. 展开更多
关键词 Underwater image enhancement Generative adversarial network multi-scale feature extraction Residual dense block
在线阅读 下载PDF
Bidirectional parallel multi-branch convolution feature pyramid network for target detection in aerial images of swarm UAVs 被引量:4
4
作者 Lei Fu Wen-bin Gu +3 位作者 Wei Li Liang Chen Yong-bao Ai Hua-lei Wang 《Defence Technology(防务技术)》 SCIE EI CAS CSCD 2021年第4期1531-1541,共11页
In this paper,based on a bidirectional parallel multi-branch feature pyramid network(BPMFPN),a novel one-stage object detector called BPMFPN Det is proposed for real-time detection of ground multi-scale targets by swa... In this paper,based on a bidirectional parallel multi-branch feature pyramid network(BPMFPN),a novel one-stage object detector called BPMFPN Det is proposed for real-time detection of ground multi-scale targets by swarm unmanned aerial vehicles(UAVs).First,the bidirectional parallel multi-branch convolution modules are used to construct the feature pyramid to enhance the feature expression abilities of different scale feature layers.Next,the feature pyramid is integrated into the single-stage object detection framework to ensure real-time performance.In order to validate the effectiveness of the proposed algorithm,experiments are conducted on four datasets.For the PASCAL VOC dataset,the proposed algorithm achieves the mean average precision(mAP)of 85.4 on the VOC 2007 test set.With regard to the detection in optical remote sensing(DIOR)dataset,the proposed algorithm achieves 73.9 mAP.For vehicle detection in aerial imagery(VEDAI)dataset,the detection accuracy of small land vehicle(slv)targets reaches 97.4 mAP.For unmanned aerial vehicle detection and tracking(UAVDT)dataset,the proposed BPMFPN Det achieves the mAP of 48.75.Compared with the previous state-of-the-art methods,the results obtained by the proposed algorithm are more competitive.The experimental results demonstrate that the proposed algorithm can effectively solve the problem of real-time detection of ground multi-scale targets in aerial images of swarm UAVs. 展开更多
关键词 Aerial images Object detection feature pyramid networks multi-scale feature fusion Swarm UAVs
在线阅读 下载PDF
高低频特征融合的低照度图像增强方法
5
作者 王德文 胡旺盛 +1 位作者 张润磊 赵文清 《智能系统学报》 北大核心 2025年第3期641-648,共8页
针对现有低照度图像增强方法中性能与开销不平衡的问题,本文提出一种高低频特征融合的低照度图像增强方法。该方法在多尺度上提取几何特征丰富的低频特征与语义特征丰富的高频特征,经过高低频特征融合得到增强图像,在保证良好图像质量... 针对现有低照度图像增强方法中性能与开销不平衡的问题,本文提出一种高低频特征融合的低照度图像增强方法。该方法在多尺度上提取几何特征丰富的低频特征与语义特征丰富的高频特征,经过高低频特征融合得到增强图像,在保证良好图像质量的同时降低开销。为提升低照度环境下的特征提取能力,构建残差混合注意力模块,从像素与通道两方面对重要的局部区域给予更多关注。针对下采样导致的信息丢失问题,提出一种特征合并模块对下采样后的特征进行特征补充。此外,通过多级残差密集连接模块增强特征复用能力。在SID(see-in-the-dark)数据集上的实验表明,该方法峰值信噪比和结构相似度分别达到29.67和0.792,模型参数量仅为1.5×10^(6)。 展开更多
关键词 低照度 图像增强 高频特征 低频特征 特征融合 注意力 多尺度 残差网络 密集连接
在线阅读 下载PDF
基于稠密局部-全局特征融合的超高清多曝光图像融合方法
6
作者 贾修一 林乔万尼 +1 位作者 郑卓然 石争浩 《电子学报》 北大核心 2025年第1期238-247,共10页
随着超高清(Ultra-High-Definition,UHD)成像技术的应用,生成高质量的UHD图像通常需要融合多幅曝光水平不同的UHD图像.然而,目前基于深度学习的多曝光图像融合方法直接融合从不同曝光水平的图像中提取的特征图,未能充分利用不同曝光级... 随着超高清(Ultra-High-Definition,UHD)成像技术的应用,生成高质量的UHD图像通常需要融合多幅曝光水平不同的UHD图像.然而,目前基于深度学习的多曝光图像融合方法直接融合从不同曝光水平的图像中提取的特征图,未能充分利用不同曝光级别图像中的特征信息,而这些特征信息对于获得良好的多曝光融合结果至关重要.为解决这一问题,我们提出了一种新颖的UHD多曝光图像融合方法,该方法结合了图像的局部和长距离依赖特征,旨在挖掘不同曝光级别图像之间的依赖关系,提取出更高阶的语义和特征.进而,利用不同级别的短连接来聚合不同粒度的特征.最后,为了过滤带噪声的特征,我们还提出了带有门控机制的多层感知器来生成高质量的超高清图像.为了更好地展示实验结果,我们还针对多曝光融合任务建立了一个UHD图像数据集.实验结果表明,在单个显存24G的GPU上执行UHD多曝光图像融合任务时,我们的方法明显优于现有方法. 展开更多
关键词 超高清图像 多曝光图像融合 稠密特征融合 双分支 实时处理
在线阅读 下载PDF
基于多层级特征融合的密集行人检测算法
7
作者 乔建华 马清松 +2 位作者 杨振疆 赵利军 李小松 《计算机工程与设计》 北大核心 2025年第9期2608-2617,共10页
为解决Deformable DETR目标检测模型对于小目标众多的人群密集场景检测困难的问题,提出一种改进的密集行人检测算法Deformable-DETR-MAEB。通过将多头注意力机制结合模型的各级编码器输出设计了用于实现多层级特征融合的MAEB模块,提高... 为解决Deformable DETR目标检测模型对于小目标众多的人群密集场景检测困难的问题,提出一种改进的密集行人检测算法Deformable-DETR-MAEB。通过将多头注意力机制结合模型的各级编码器输出设计了用于实现多层级特征融合的MAEB模块,提高模型的小目标检测的能力。此外,还在解码器部分设计了正样本增强模块并制定了二阶段模型训练策略,减少模型的训练周期,并采用提取特征能力更强的Swin Transformer替换了原有的骨干网络。实验结果表明,改进后的密集行人检测算法在CrowdHuman数据集上的平均检测精度为83.4%,相比原模型提高了5.2%,对于小目标行人的平均检测精度提高了2.7%。 展开更多
关键词 密集行人检测 多头注意力 特征融合 小目标 正样本增强 训练策略 骨干网络
在线阅读 下载PDF
基于多层级特征融合的多模态医学图像配准
8
作者 常青 李梦珂 +1 位作者 陆晨豪 张扬 《中国科学院大学学报(中英文)》 北大核心 2025年第5期645-654,共10页
多模态医学图像的灰度和纹理结构差别较大,难以提取相对应的特征,导致配准精度较低。针对这一问题,提出基于多层级特征融合的配准模型,并行提取参考图和浮动图的特征,在多层级结构中使用双输入空间注意力模块实现多模态特征渐进融合,获... 多模态医学图像的灰度和纹理结构差别较大,难以提取相对应的特征,导致配准精度较低。针对这一问题,提出基于多层级特征融合的配准模型,并行提取参考图和浮动图的特征,在多层级结构中使用双输入空间注意力模块实现多模态特征渐进融合,获取其相关性,并将这种相关性映射到图像配准变换中。同时使用基于密集对称尺度不变特征变换的局部特征相似性引导网络进行迭代优化,实现多模态图像的无监督配准。 展开更多
关键词 多层级特征融合 多模态 密集对称尺度不变特征变换 无监督配准
在线阅读 下载PDF
基于级联的多尺度特征融合残差去噪网络
9
作者 郭业才 胡晓伟 毛湘南 《计算机科学》 北大核心 2025年第6期239-246,共8页
针对图像去噪特征提取单一化以及特征利用率低,不能生成更清晰图像的问题,提出了级联多尺度特征融合残差真实图像去噪网络。该网络双分支自适应密集残差块采用双路非对称扩张卷积扩展图像感受野,在水平尺度上选择性地提取丰富的纹理特... 针对图像去噪特征提取单一化以及特征利用率低,不能生成更清晰图像的问题,提出了级联多尺度特征融合残差真实图像去噪网络。该网络双分支自适应密集残差块采用双路非对称扩张卷积扩展图像感受野,在水平尺度上选择性地提取丰富的纹理特征。在多尺度空间U-Net模块中,利用多尺度空间融合块增强网络对图像整体结构的学习能力,学习不同层次的信息,获取基于图像空间和上下文信息的多级特征。跳跃连接促进结构之间的参数共享,使不同尺度的特征充分融合,保证信息的完整性。最后,采用双残差学习构建出清晰的去噪图像。结果表明,该算法在真实噪声数据集(DND和SIDD)上的峰值信噪比分别为39.68 dB和39.50 dB,结构相似性分别为0.953和0.957,优于主流去噪算法。所提算法在增强去噪性能的同时,也保留了更详细的信息,使图像质量进一步提升。 展开更多
关键词 图像去噪 真实噪声 卷积神经网络 多尺度特征融合 密集残差
在线阅读 下载PDF
基于Swin Transformer改进YOLO的密集场景行人检测算法
10
作者 张森奕 张雪松 +2 位作者 郭佳琦 金花 李光宇 《科学技术与工程》 北大核心 2025年第21期9018-9027,共10页
在密集场景中,常常包含众多被遮挡或者小尺度的行人目标。这样的场景对常规的目标检测模型提出了挑战,往往会出现大量的漏检和错检问题。为了解决密集场景中行人检测时出现的高漏报率和误报率问题,提出了一种新的密集场景行人检测框架ST... 在密集场景中,常常包含众多被遮挡或者小尺度的行人目标。这样的场景对常规的目标检测模型提出了挑战,往往会出现大量的漏检和错检问题。为了解决密集场景中行人检测时出现的高漏报率和误报率问题,提出了一种新的密集场景行人检测框架ST-YOLO。首先,将YOLOv5的骨干网络中的低层小目标检测层融入特征金字塔网络和路径聚合网络结构中,增加了一个检测小目标行人检测层;其次,对YOLOv5的颈部网络进行改进,利用基于Swin Transformer的多尺度全局信息和卷积神经网络(convolutional neural networks,CNN)所提取的局部信息来构建聚合特征,提高网络的特征提取能力;并且在预测过程中引入了SIoU(scalable-IoU)损失函数,加快模型的收敛速度和提升检测能力;最后,使用Soft-NMS(soft non-maximum suppression)代替原非极大值抑制(non-maximum suppression,NMS)算法,减少非最大化抑制阶段误删除检测框问题,降低了检测算法的误报率。在Wider Person数据集上的大量实验表明,改进后的ST-YOLO算法的精度和mAP0.5比目前主流的YOLOv9算法分别提升了5.7%和3.6%。 展开更多
关键词 行人检测 密集场景 Swin Transformer YOLOv5 特征融合
在线阅读 下载PDF
面向电能表检定流水线的轻量化目标检测算法
11
作者 董贤光 孙艳玲 +6 位作者 代燕杰 邢宇 翟晓卉 孙凯 吕玉超 吴强 刘琚 《数据采集与处理》 北大核心 2025年第2期545-560,共16页
在工业流水线场景中,利用带有视觉信息的目标检测技术为故障发现及消缺提供决策信息已成为智能生产的新热点。针对电能表流水线检定场景中目标遮挡、小目标密集排列等问题,在YOLOv8n的基础上,提出了一种轻量化目标检测算法。通过引入O⁃G... 在工业流水线场景中,利用带有视觉信息的目标检测技术为故障发现及消缺提供决策信息已成为智能生产的新热点。针对电能表流水线检定场景中目标遮挡、小目标密集排列等问题,在YOLOv8n的基础上,提出了一种轻量化目标检测算法。通过引入O⁃GELAN模块,在保持低计算量的同时获取更丰富的特征层次。利用特征收集⁃融合⁃分发的颈部架构和通道位置注意力机制实现特征跨层融合;此外,采用重参数化卷积检测头以进一步提高检测效率。在现场采集流水线数据上的实验表明,改进后模型的mAP(0.5)和mAP(0.5∶0.95)分别达到了0.994和0.828,检测速度可达111.5帧/s,能够满足工业场景下的高精度和高实时性需要,可为故障消缺提供辅助决策。 展开更多
关键词 工业流水线 密集目标检测 YOLOv8 特征融合 现场数据采集
在线阅读 下载PDF
针对密集行人检测任务中多尺度目标的检测算法
12
作者 徐振峰 许云峰 +2 位作者 于子洲 梅卫 张妍 《计算机工程与应用》 北大核心 2025年第17期304-316,共13页
在密集行人检测任务中目标的检测精度低,漏检和误检等一直是充满挑战的问题,导致此问题的原因是大多数的场景中存在大量多尺度的目标,多尺度的目标使得算法面临着尺度变化,从而使得算法的精度不高。针对此问题,提出了一种基于改进YOLOv5... 在密集行人检测任务中目标的检测精度低,漏检和误检等一直是充满挑战的问题,导致此问题的原因是大多数的场景中存在大量多尺度的目标,多尺度的目标使得算法面临着尺度变化,从而使得算法的精度不高。针对此问题,提出了一种基于改进YOLOv5s的多尺度行人检测网络(MPDNet)。网络改进包括三个方面:对于主干网络,在C3模块中添加了空间位置注意力模块,并引入改进的ViTv3Block模块,可以有效强化特征信息的提取;特征融合部分,在渐近特征金字塔网络(AFPN)的基础上进行了改进,改进后的AFPN可以在更少参数量和计算量的情况下进行跨层特征融合;在特征融合网络末端添加了空间加强多尺度注意力模块(SEMA),增强模型对目标的定位能力。通过分析实验结果,MPDNet在WiderPerson和CrowdHuman两个密集行人检测数据集上相较于YOLOv5s,AP50分别提升了4.2和3.2个百分点,AP50:95分别提升了5.0和3.9个百分点。MPDNet能够很好地完成复杂场景中密集行人检测任务。 展开更多
关键词 YOLOv5s 密集行人检测 渐进多尺度特征融合 目标检测 注意力机制
在线阅读 下载PDF
融合自适应采样与全局感知的图像深度估计算法
13
作者 王国相 李昌隆 +2 位作者 宋俊锋 叶振 金恒 《计算机工程与应用》 北大核心 2025年第5期261-268,共8页
深度估计旨在通过少量稀疏深度样本点预测场景的稠密深度图,现有方法通常直接从稀疏深度样本生成最终的深度预测图,没有充分挖掘稀疏深度图包含的几何信息,导致深度估计算法的预测精度不够高。针对上述问题,提出一种融合自适应采样与全... 深度估计旨在通过少量稀疏深度样本点预测场景的稠密深度图,现有方法通常直接从稀疏深度样本生成最终的深度预测图,没有充分挖掘稀疏深度图包含的几何信息,导致深度估计算法的预测精度不够高。针对上述问题,提出一种融合自适应采样与全局感知的图像深度估计算法,由粗粒度到细粒度逐步预测深度图。通过引入预训练的深度补全网络预测粗粒度的稠密深度图,获取丰富的场景结构信息和语义信息。设计自适应深度采样方法,引导算法模型对远处的区域施加更多关注,缓解深度数据的长尾分布问题。同时通过新设计的全局感知模块,捕获并融合多尺度特征,从而获取更多的场景上下文信息。在NYU-Depth-v2数据集上的实验结果表明,算法在整体性能上超越了其他方法;消融实验的结果验证了提出的各个模块的有效性;Zero-shot实验的结果表明算法有较好的泛化性能,其中在ScanNet数据集上的阈值精度指标δ<1.25相比P3D方法提升了42个百分点,相比S2D方法则提升了3.8个百分点。 展开更多
关键词 深度估计 深度补全 稠密深度图 多尺度特征融合 自适应采样
在线阅读 下载PDF
多尺度EPI融合的密集光场解耦重建
14
作者 曹捷 吴玉静 +2 位作者 张倩 孟春丽 严涛 《上海大学学报(自然科学版)》 北大核心 2025年第3期530-542,共13页
为了充分挖掘光场极平面视图(epipolar plane image,EPI)之间的内在相关性,同时强化对空间信息的有效捕捉,提出了一种多尺度EPI信息融合的密集光场解耦重建方法.该方法对空间维度和极平面维度进行了更深层次的特征利用,能够更好地捕捉... 为了充分挖掘光场极平面视图(epipolar plane image,EPI)之间的内在相关性,同时强化对空间信息的有效捕捉,提出了一种多尺度EPI信息融合的密集光场解耦重建方法.该方法对空间维度和极平面维度进行了更深层次的特征利用,能够更好地捕捉子孔径视图间的角度相关性,通过解耦与融合多种信息,提高了光场重建的精度和效果.首先,在四维光场数据的基础上,增加了密集的空间维度,提升了网络的泛化能力,并增强了其对图像局部结构和纹理信息的理解.其次,为了更好地补充和增强极平面间的信息互补性,设计了一个极平面融合模块,并提出了一种新的多尺度卷积注意力机制来融合特征信息.该注意力机制通过多尺度特征提取与全局关注机制,能有效捕捉角度信息,增强重要特征表达并抑制冗余内容.最后,在HCInew、HCIold和Stanford等光场数据集上进行实验.结果表明,本方法在峰值信噪比(peak signal-to-noise ratio,PSNR)和结构相似性(structural similarity,SSIM)等评价指标上优于现有的最先进的SOTA(state-of-the-art)方法,在大多数测试场景中实现了更好的重建效果. 展开更多
关键词 光场 光场解耦 密集特征提取 极平面融合 角度超分辨率
在线阅读 下载PDF
基于特征融合及动态背景去除的室内机器人语义VI-SLAM
15
作者 王立鹏 王小晨 +1 位作者 齐尧 张佳鹏 《智能系统学报》 CSCD 北大核心 2024年第6期1438-1448,共11页
为提升室内机器人在动态场景中的定位精度,同时构建细节丰富的三维语义地图,提出一种基于特征融合及动态背景去除的室内机器人语义VI-SLAM(visual-inertial simultaneous localization and mapping)算法。首先,改进ORB-SLAM3算法框架,... 为提升室内机器人在动态场景中的定位精度,同时构建细节丰富的三维语义地图,提出一种基于特征融合及动态背景去除的室内机器人语义VI-SLAM(visual-inertial simultaneous localization and mapping)算法。首先,改进ORB-SLAM3算法框架,设计一种可以实时构建三维稠密点云地图的VI-SLAM算法;其次,将目标识别算法YOLOv5与VI-SLAM算法融合,获取二维语义信息,结合二维语义信息与极线约束原理去除动态特征;再次,将二维语义信息映射为三维语义标签,将语义特征与点云特征相融合,构建三维语义地图;最后,基于公开数据集及移动机器人平台,在动态场景下开展三维语义地图构建实验。实验结果验证了提出的该语义VISLAM算法在动态环境下定位与建图的可行性和有效性。 展开更多
关键词 室内机器人 VI-SLAM 特征动态去除 语义地图 特征融合 稠密点云 点云分割 动态场景
在线阅读 下载PDF
有限训练样本下的多尺度空洞密集网络高光谱影像分类 被引量:2
16
作者 涂潮 刘万军 +1 位作者 赵琳琳 曲海成 《仪器仪表学报》 EI CAS CSCD 北大核心 2024年第4期206-216,共11页
为了在有限训练样本情况下充分提取高光谱影像的空间光谱特征,提高分类精度,提出一种结合空洞卷积和密集网络的高光谱影像分类方法。首先,构建多尺度空洞特征提取模块,引入不同数量的空洞卷积层和普通卷积层通过级联的方式增大模型的感... 为了在有限训练样本情况下充分提取高光谱影像的空间光谱特征,提高分类精度,提出一种结合空洞卷积和密集网络的高光谱影像分类方法。首先,构建多尺度空洞特征提取模块,引入不同数量的空洞卷积层和普通卷积层通过级联的方式增大模型的感受野,并提取多尺度特征。然后,在多尺度空洞特征提取模块之间建立密集连接,实现特征复用的同时缓解梯度消失问题,而模块内部无密集连接,避免构建深度网络而导致网络参数过多的问题。最后,将得到的特征依次通过池化层,全连接层和Softmax层完成分类。另外,本文在全连接层后加入dropout正则化防止出现过拟合。在Indian Pines和WHU-Hi-Longkou数据集上与经典分类方法进行对比,本文方法 OA分别为98.75%和98.82%。实验结果表明,本文设计的网络模型在有限训练样本情况下,分类效果最优。 展开更多
关键词 高光谱影像 多尺度特征融合 空洞卷积 密集网络
在线阅读 下载PDF
滑窗注意力多尺度均衡的密集行人检测算法 被引量:4
17
作者 于范 张菁 《计算机科学与探索》 CSCD 北大核心 2024年第5期1286-1300,共15页
由于现实场景下的行人目标在形态、尺度等方面存在巨大差异,相比于传统方法对多尺度行人检测平均精准率较低的情况,基于Transformer注意力机制的网络在行人检测领域已经展现出强大的性能。然而,密集场景下的多尺度检测仍存在一些难点。... 由于现实场景下的行人目标在形态、尺度等方面存在巨大差异,相比于传统方法对多尺度行人检测平均精准率较低的情况,基于Transformer注意力机制的网络在行人检测领域已经展现出强大的性能。然而,密集场景下的多尺度检测仍存在一些难点。在密集场景中,通常会包含大量的被遮挡或小规模的行人目标,导致模型产生大量的误检和漏检,同时耗费大量的计算资源。此外,当行人目标重叠较为严重时,准确地检出所有目标也会变得极为困难。为了解决上述问题,提出了一种基于滑窗注意力的密集场景多尺度行人检测算法。在Backbone中使用改进Swin block使得网络能够提取到更多的细节特征,同时减少注意力机制带来的繁重计算量。为有效解决特征融合问题,在Neck部分使用DyHead block来统一多个注意力运算,以此提高特征融合效率。针对特征均衡问题,设计了一种基于全连接的特征尺度均衡模块,通过在特征金字塔的各层级之间构造不同的残差结构来进行特征平衡,辅助模型生成更高质量的特征图。在WiderPerson数据集上的实验结果表明,该算法在AP值上提升了1.1个百分点,在最值得关注的小目标和中目标上也分别有1.0和0.7个百分点的提升。 展开更多
关键词 多尺度行人检测 深度学习 密集场景 滑窗注意力 特征融合均衡
在线阅读 下载PDF
基于多分支特征融合的密集人群计数网络 被引量:3
18
作者 孙爽 何立风 +1 位作者 朱纷 张梦颖 《计算机工程与设计》 北大核心 2024年第3期814-821,共8页
针对人群计数任务中存在的多尺度变化、背景噪声等问题,提出一种基于多分支特征融合的人群计数网络。在网络前端设计一个双向特征融合路径,将网络深层的语义信息和浅层的空间细节信息进行反复提取融合,使用位置注意力机制和通道注意力... 针对人群计数任务中存在的多尺度变化、背景噪声等问题,提出一种基于多分支特征融合的人群计数网络。在网络前端设计一个双向特征融合路径,将网络深层的语义信息和浅层的空间细节信息进行反复提取融合,使用位置注意力机制和通道注意力机制增强网络对人群和背景之间的判别能力,生成高质量特征图;网络后端采用密集残差连接增强网络对人头连续的多尺度信息提取能力,得到最终的人群密度图。在ShanghaiTech、UCF_CC_50和UCF_QNRF数据集上分别进行的对比实验的结果表明,该模型的计数性能优于先前诸多方法,有着良好的计数精度。 展开更多
关键词 人群计数 多尺度变化 特征融合 注意力机制 密集残差连接 空洞卷积 密度图
在线阅读 下载PDF
面向复杂场景密集行人检测的YOLOv8改进模型 被引量:1
19
作者 胡伟超 皮建勇 +2 位作者 胡倩 黄昆 王娟敏 《电子测量技术》 北大核心 2024年第14期159-169,共11页
针对当前行人检测面临的环境复杂、目标尺寸多变和严重遮挡等挑战,导致现有检测技术在识别密集行人时容易发生误判和遗漏的问题,本文提出一种高效的面向复杂场景密集行人检测的YOLOv8改进模型。在骨干网络引入DCNv2设计C2f_DCNetv2替换... 针对当前行人检测面临的环境复杂、目标尺寸多变和严重遮挡等挑战,导致现有检测技术在识别密集行人时容易发生误判和遗漏的问题,本文提出一种高效的面向复杂场景密集行人检测的YOLOv8改进模型。在骨干网络引入DCNv2设计C2f_DCNetv2替换C2f模块,提升骨干网络的特征提取能力;通过在架构中加入小目标检测头,增强模型对小尺寸目标的检测能力,提高对小目标的检测识别精度;基于四检测头改进AFPN设计出AFPN-4H,优化特征层之间的信息融合,提高了模型对不同尺度目标的适应性和检测精度;最后,通过结合Wise-IoU、Focaler-IoU和MPDIoU得到WFM-IoU,进一步提高了目标定位的准确性。实验结果表明,与原始的YOLOv8n模型相比,在P、R、AP50以及AP50:95等关键指标上分别提升1.6%、4.0%、3.6%和3.8%,也优于其他算法。验证了本文改进算法在复杂场景密集行人检测任务中具有较好的性能。 展开更多
关键词 密集行人检测 YOLOv8 可变形卷积 多尺度特征融合 损失函数
在线阅读 下载PDF
跨级融合门控自适应网络用于视网膜血管分割 被引量:1
20
作者 梁礼明 余洁 +2 位作者 陈鑫 雷坤 周珑颂 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第4期1097-1109,共13页
针对现有多数算法对浅层特征提取不足,导致分割结果中血管边界模糊、毛细血管欠分割且包含噪声等问题,提出一种跨级融合门控自适应网络。该网络中的密集门控通道变换模块,通过促进通道之间的竞争或协同关系充分提取浅层特征信息,避免浅... 针对现有多数算法对浅层特征提取不足,导致分割结果中血管边界模糊、毛细血管欠分割且包含噪声等问题,提出一种跨级融合门控自适应网络。该网络中的密集门控通道变换模块,通过促进通道之间的竞争或协同关系充分提取浅层特征信息,避免浅层粗粒度特征信息丢失;通过跨层次融合模块捕获各层跨维度交互信息,有效聚合多尺度上下文特征;采用双自适应特征融合方法有效引导相邻层次特征融合,抑制噪声。在公共数据集DRIVE、CHASEDB1和STARE上进行验证,结果表明:所提网络准确率分别为0.9652、0.9668和0.9695,F_(1)值分别为0.8544、0.8152和0.8412,在多个指标上均处于较高水平,优于现有先进算法。 展开更多
关键词 视网膜血管分割 密集门控通道变换 跨层次融合模块 双自适应特征融合 三重注意力模块
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部