期刊文献+
共找到10篇文章
< 1 >
每页显示 20 50 100
融合双重极化注意力的轻量化半监督语义分割 被引量:2
1
作者 马冬梅 李悦媛 陈曦 《计算机工程与应用》 CSCD 北大核心 2024年第8期225-233,共9页
针对目前半监督语义分割方法复杂度高、训练精度低、参数量过大等问题,提出融合双重极化自注意力机制的轻量级半监督语义分割算法。模型使用由位置感知循环卷积构造的Resnet-101残差网络作为分割骨干网络提取深层特征。融合了通道及空... 针对目前半监督语义分割方法复杂度高、训练精度低、参数量过大等问题,提出融合双重极化自注意力机制的轻量级半监督语义分割算法。模型使用由位置感知循环卷积构造的Resnet-101残差网络作为分割骨干网络提取深层特征。融合了通道及空间双重极化自注意力机制,在极化通道和空间注意力分支中保持较高内部分辨率。将位置感知循环卷积与通道注意力操作结合起来,提升分割精度并降低计算成本,克服硬件支持等问题。在公开数据集PASCALVOC 2012上的实验结果显示,该算法其平均交并比可达到76.32%,较基准模型准确率提高了2.52个百分点,参数量减少了9%,模型硬件所占内存减小了61.6%。设计的模型与领域内最新算法相比,该算法在精度、模型复杂度、参数量等方面均展现出了显著的优势。 展开更多
关键词 半监督语义分割 位置感知循环卷积 极化注意力 内部分辨率
在线阅读 下载PDF
基于极化注意力的双模态目标跟踪算法
2
作者 权家锐 何乐生 +2 位作者 余圣涛 廖伟 尹恒 《电光与控制》 CSCD 北大核心 2024年第10期15-20,共6页
基于可见光图像的视觉目标跟踪在雨雾天气和光照变化的场景下,其可见光图像信息将变得不再可靠,而红外图像通过反映物体的热源信息成像,能够在上述情况下清晰地成像,因此,利用红外图像与可见光图像的互补性优势,可实现在复杂场景下的鲁... 基于可见光图像的视觉目标跟踪在雨雾天气和光照变化的场景下,其可见光图像信息将变得不再可靠,而红外图像通过反映物体的热源信息成像,能够在上述情况下清晰地成像,因此,利用红外图像与可见光图像的互补性优势,可实现在复杂场景下的鲁棒性跟踪。在特征提取层利用多尺度特征提取结构获得目标在不同尺度感受域的特征,并通过自适应权重分配增强特征选择能力;利用极化注意力机制对特征进行增强,从而有效地融合双模态信息进行鲁棒性跟踪。所提算法在大型红外与可见光数据集GTOT与RGBT234上进行实验验证,精确率和成功率分别达到了90.05%、72.7%与78.7%、55.5%。实验结果表明,所提算法在跟踪精确率与成功率方面均优于目前主流算法。 展开更多
关键词 极化注意力 红外与可见光融合 目标跟踪 深度学习
在线阅读 下载PDF
多尺度特征和极化自注意力的Faster-RCNN水漂垃圾识别 被引量:1
3
作者 蒋占军 吴佰靖 +1 位作者 马龙 廉敬 《计算机应用》 CSCD 北大核心 2024年第3期938-944,共7页
针对小目标水漂垃圾形态多变、分辨率低且信息有限,导致检测效果不理想的问题,提出一种改进的Faster-RCNN(Faster Regions with Convolutional Neural Network)水漂垃圾检测算法MP-Faster-RCNN(Faster-RCNN with Multi-scale feature an... 针对小目标水漂垃圾形态多变、分辨率低且信息有限,导致检测效果不理想的问题,提出一种改进的Faster-RCNN(Faster Regions with Convolutional Neural Network)水漂垃圾检测算法MP-Faster-RCNN(Faster-RCNN with Multi-scale feature and Polarized self-attention)。首先,建立黄河兰州段小目标水漂垃圾数据集,将空洞卷积结合ResNet-50代替原来的VGG-16(Visual Geometry Group 16)作为主干特征提取网络,扩大感受野以提取更多小目标特征;其次,在区域生成网络(RPN)利用多尺度特征,设置3×3和1×1的两层卷积,补偿单一滑动窗口造成的特征丢失;最后,在RPN前加入极化自注意力,进一步利用多尺度和通道特征提取更细粒度的多尺度空间信息和通道间依赖关系,生成具有全局特征的特征图,实现更精确的目标框定位。实验结果表明,MP-Faster-RCNN能有效提高水漂垃圾检测精度,与原始Faster-RCNN相比,平均精度均值(mAP)提高了6.37个百分点,模型大小从521 MB降到了108 MB,且在同一训练批次下收敛更快。 展开更多
关键词 目标检测 水漂垃圾 Faster-RCNN 空洞卷积 多尺度特征融合 极化注意力
在线阅读 下载PDF
结合极化自注意力和Transformer的结直肠息肉分割方法 被引量:1
4
作者 谢斌 刘阳倩 李俞霖 《光电工程》 CAS CSCD 北大核心 2024年第10期87-101,共15页
针对传统结直肠息肉图像分割方法存在的目标分割不够精确、对比度不足,以及边缘细节模糊等问题,文中结合极化自注意力和Transformer提出了一种新的结直肠息肉图像分割方法。首先,设计了一种改进的相位感知混合模块,通过动态捕捉Transfor... 针对传统结直肠息肉图像分割方法存在的目标分割不够精确、对比度不足,以及边缘细节模糊等问题,文中结合极化自注意力和Transformer提出了一种新的结直肠息肉图像分割方法。首先,设计了一种改进的相位感知混合模块,通过动态捕捉Transformer结直肠息肉图像的多尺度上下文信息,以使目标分割更加精确。其次,在新方法中引入了极化自注意力机制,实现了图像的自我注意力强化,使得到的图像特征可以直接用于息肉分割任务中,以达到提高病灶区域与正常组织区域对比度的目的。另外,利用线索交叉融合模块加强动态分割时对图像几何结构的捕捉能力,以达到提升结果图像边缘细节的目的。实验结果表明,文中提出的方法不仅能够有效地提升结直肠息肉分割的精确度和对比度,并且还能够较好地克服分割图像细节模糊的问题。在数据集CVC-ClinicDB、Kvasir、CVC-ColonDB和ETIS-LaribPolypDB上的测试结果表明,文中所提新方法能够取得更好的分割效果,其Dice相似性指数分别为0.946、0.927、0.805和0.781。 展开更多
关键词 结直肠息肉 TRANSFORMER 相位感知模块 极化注意力模块
在线阅读 下载PDF
极化自注意力调控的情景式视频实例多尺度分割 被引量:3
5
作者 黄滢 何自芬 +2 位作者 杨宏宽 赵崇任 张印辉 《计算机学报》 EI CAS CSCD 北大核心 2022年第12期2605-2618,共14页
视频实例分割(Video Instance Segmentation)是开发智能机器人视觉系统的一项关键技术,部署视频实例分割算法的智能机器人能够精确地实现目标追踪、避障等高复杂度任务.机器人在特定情景下自主移动时的成像效果会受到自身速度、拍摄角... 视频实例分割(Video Instance Segmentation)是开发智能机器人视觉系统的一项关键技术,部署视频实例分割算法的智能机器人能够精确地实现目标追踪、避障等高复杂度任务.机器人在特定情景下自主移动时的成像效果会受到自身速度、拍摄角度、距离远近及目标移动速度的影响,导致捕获的运动目标普遍存在拓扑形变和尺度缩放等随机性问题.对于在相同视频序列中跨静态帧的同一目标实例而言,模型所学习的可辨识特征往往具有多样性和不确定性.现有模型更多强调帧间掩膜传播或特征跟踪等时序交互方法,而忽略了对拓扑实例的深层语义解析和尺度目标的轮廓分辨,因此缺乏对高层细粒度特征的有效关注和低层空间信息的准确定位.本文提出一种极化自注意力调控的多尺度视频实例分割PSAM-Net(Polarized Self-Attention Manipulation Network)模型.首先,在残差网络中嵌入单级式和级联式的极化自注意力机制,以建立任意空间位置的非线性关联信息,及其正交方向的通道特征依赖关系,克服高层特征图中细粒度特征分布弥散问题,增强模型的区域特征聚焦能力,完成对拓扑实例的深层语义解析;其次,由特征金字塔自上而下的特征流动方式,所导致的低层特征空间位置和实例边缘信息匮乏问题,对聚合了多粒度信息的空间定位分支模型进行构建,以适应不同尺度下前景目标定位检测和轮廓分割需求.最后,从Youtube-VIS中划分出多个适用于动物场景下的数据集.交叉验证结果表明,相较于YolactEdge基准模型,PSAM-Net在平均检测和平均分割精度上分别提升6.08%和8.87%,达到44.06%和44.41%,测试速度高达80FPS,表现出较好的鲁棒性与稳定性.本文方法实现了视频序列输入下的实时高精度分割,为智能移动机器人的自主环境感知提供了有效理论依据和一定参考价值. 展开更多
关键词 视频实例分割 拓扑形变 尺度缩放 PSAM-Net 极化注意力调控 空间定位分支
在线阅读 下载PDF
基于改进YOLOv8的小目标检测算法
6
作者 邓立国 吴毅麒 《现代电子技术》 北大核心 2025年第14期169-177,共9页
小目标检测在自动驾驶、医学诊断、工业质检等领域的应用需求日益凸显。针对现有小目标检测算法存在的误检、漏检以及检测精度低等问题,提出一种基于改进YOLOv8的小目标检测算法,即PGA-YOLOv8。该算法以YOLOv8为基础模型,结合注意力机... 小目标检测在自动驾驶、医学诊断、工业质检等领域的应用需求日益凸显。针对现有小目标检测算法存在的误检、漏检以及检测精度低等问题,提出一种基于改进YOLOv8的小目标检测算法,即PGA-YOLOv8。该算法以YOLOv8为基础模型,结合注意力机制来提高对小目标的定位能力;在特征融合网络中改进特征融合策略(ASFF),增加1个检测层来学习浅层的特征,以更好地利用各层次特征信息;将YOLOv8模型中部分普通卷积替换为分组重组卷积(GSConv)以优化网络结构。最后,在常用基准数据集(VOC2012)和航空图像数据集(AI-TOD)上,以YOLOv8为基准模型设置多组实验,验证改进的各种技术的有效性以及PGA-YOLOv8算法的检测能力。实验结果表明,相较于YOLOv8算法,所提算法在两个数据集中平均精度均值(mAP)分别提高了2.576%和6.389%。 展开更多
关键词 小目标检测 YOLOv8 极化注意力模块 自适应空间特征融合策略 分组重组卷积 性能评估
在线阅读 下载PDF
基于改进YOLOv7-tiny算法的多种类不均衡样本水稻害虫检测 被引量:3
7
作者 李鑫 南新元 《山东农业科学》 北大核心 2024年第6期133-142,共10页
为实现基于机器视觉的田间水稻害虫检测,本研究结合IP102农业害虫数据集及网络资源,建立了含有26类标签的不均衡样本水稻害虫数据集;改进YOLOv7-tiny单阶段目标检测算法,以部分卷积PConv作为主要卷积核,结合极化自注意力机制(Polarized ... 为实现基于机器视觉的田间水稻害虫检测,本研究结合IP102农业害虫数据集及网络资源,建立了含有26类标签的不均衡样本水稻害虫数据集;改进YOLOv7-tiny单阶段目标检测算法,以部分卷积PConv作为主要卷积核,结合极化自注意力机制(Polarized Self-Attention),将提取到的特征进行复杂双向多尺度特征融合,建立了适合多种类不均衡样本的水稻害虫检测模型。结果表明,在加入迁移学习和多尺度训练的条件下,改进后的YOLOv7-tiny检测算法在自建水稻害虫数据集的平均检测精度达到96.4%,单张图片的检测时间为8.8 ms,模型大小为9 055 kb,可实现对田间水稻害虫的快速准确识别,为水稻害虫的智能化检测和防治提供了技术支持。 展开更多
关键词 水稻害虫检测 改进YOLOv7-tiny算法 部分卷积 极化注意力机制 特征融合 迁移学习
在线阅读 下载PDF
基于改进YOLO v8的水稻害虫识别方法 被引量:3
8
作者 李龙 李梦霞 李志良 《江苏农业科学》 北大核心 2024年第20期209-219,共11页
实时监测稻田害虫泛滥情况是预防水稻产量降低的重要手段之一。针对当前的目标检测算法在实际稻田环境下检测精度较低且模型计算量较大、难以实现实时检测等问题,提出一种基于YOLO v8的改进的水稻害虫识别算法YOLO v8-SDPS。首先在主干... 实时监测稻田害虫泛滥情况是预防水稻产量降低的重要手段之一。针对当前的目标检测算法在实际稻田环境下检测精度较低且模型计算量较大、难以实现实时检测等问题,提出一种基于YOLO v8的改进的水稻害虫识别算法YOLO v8-SDPS。首先在主干网络中用SD_Conv卷积替代标准卷积,重构特征提取模块,在降低参数量的同时尽可能保留害虫目标的边缘特征信息,提升对害虫目标的特征提取能力;其次在颈部引入基于Slim-Neck范式的GSConv模块和VoV-GSCSP模块,在减少模型计算量的同时提升模型的检测精度;最后在SPPF层前引入PSA注意力模块,降低背景的噪声干扰,使模型更加关注个体的空间位置信息。用本研究提出的算法在经数据增强后的自建水稻害虫数据集上进行试验,结果表明,YOLO v8-SDPS获得86.6%的平均检测精度,相较于原始YOLO v8n模型提升4.1百分点。同时改进后的模型参数量为2.62 M,计算量为7.5 GFLOPs,相较于基准模型分别降低16.8%和15.7%,实现了模型轻量化和较高检测精度的平衡。在害虫小且密集、背景干扰严重、光照强烈等复杂环境下,YOLO v8-SDPS均能较好地识别出目标个体,有效地降低漏检率和误检率,具有较好的鲁棒性,可为稻田实时巡检提供有效技术支持。 展开更多
关键词 目标检测 水稻害虫 深度学习 YOLO v8 极化注意力
在线阅读 下载PDF
全局-局部特征融合的人体姿态估计算法
9
作者 毛琳 任春贺 杨大伟 《电子测量技术》 北大核心 2024年第10期115-125,共11页
针对现有人体姿态估计算法存在因骨干网络特征提取不充分,导致关键点特征信息丢失的问题,提出一种结合全局-局部特征融合模块的人体姿态估计网络模型(GLF-Net)。为了在特征提取阶段获得高质量的特征图,该算法从全局特征和局部特征出发,... 针对现有人体姿态估计算法存在因骨干网络特征提取不充分,导致关键点特征信息丢失的问题,提出一种结合全局-局部特征融合模块的人体姿态估计网络模型(GLF-Net)。为了在特征提取阶段获得高质量的特征图,该算法从全局特征和局部特征出发,对骨干网络ResNet-50进行改进,分别设计了全局极化自注意力模块和局部深度可分离卷积模块。同时采用并行的结构方式将融合了全局位置信息和局部语义信息特征的模块嵌入到骨干网络的Bottleneck层中,既能增强原骨干网络的特征提取能力,又为后续的Transformer网络提供有效的全局和局部特征输入,进而提高姿态关键点检测的性能。在公开人体姿态估计数据集COCO 2017上和MPII数据集上分别进行模型测试,该算法性能与与基准算法(Poseur)相比,姿态关键点的平均准确度(AP)提升了2.1%,平均召回率(AR)提升了1.5%,正确估计关键点比例(PCKh@0.5)最高达到90.6。实验结果表明,所提算法在姿态估计精度上优于现存同类方法,可以明显提高人体姿态关键点的定位准确度。 展开更多
关键词 人体姿态估计 特征提取 全局极化注意力 局部深度可分离卷积 全局-局部特征融合
在线阅读 下载PDF
基于特征与区域定位增强的遥感舰船目标检测 被引量:7
10
作者 宋志娜 李莎 +1 位作者 杨建明 徐川 《计算机工程》 CAS CSCD 北大核心 2023年第8期257-264,共8页
高分辨率遥感图像在海上监视、海上搜救、海上运输等军用和民用领域的舰船检测方面有着广泛的应用。然而高分辨率光学遥感图像舰船目标检测通常存在背景复杂、目标方向任意、尺度多变等问题,导致检测精度不高。提出一种基于特征和区域... 高分辨率遥感图像在海上监视、海上搜救、海上运输等军用和民用领域的舰船检测方面有着广泛的应用。然而高分辨率光学遥感图像舰船目标检测通常存在背景复杂、目标方向任意、尺度多变等问题,导致检测精度不高。提出一种基于特征和区域定位增强的旋转检测算法RetinaNet-MPD。通过添加一个多尺度特征融合模块,充分融合不同尺度、不同层级的特征信息,以增强不同尺度特征图的特征表示能力。针对复杂背景下的舰船目标检测,提出极化双重注意力网络,通过在注意力网络后加入极化函数,充分提取目标的关键特征,同时抑制不相关信息,以有效区分目标和背景。此外,为更准确地定位舰船目标,在对正负样本进行训练时采用一种动态锚学习方法,从而动态选择目标区域内具有良好定位潜力的高质量锚,提高舰船目标检测精度。实验结果表明,RetinaNet-MPD算法在DOTA舰船和HRSC2016数据集上的检测精度分别为89.3%和85.8%,相比现有旋转目标检测算法的检测精度有所提升。 展开更多
关键词 高分辨率遥感图像 舰船目标检测 多尺度特征融合 极化双重注意力网络 动态锚学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部