期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
面向复杂背景下烟雾火焰检测的改进YOLOv8s算法 被引量:2
1
作者 马耀名 张鹏飞 谭福生 《计算机工程与应用》 北大核心 2025年第3期121-130,共10页
针对复杂背景下烟雾火焰目标与背景混淆,导致烟雾火焰检测精度低等问题,提出一种面向复杂背景下烟雾火焰检测的YOLOv8s改进模型。特征通道之间具有高度相似性,为了有效利用跨不同通道间的冗余,提高模型对烟雾火焰目标和背景的区分,设计... 针对复杂背景下烟雾火焰目标与背景混淆,导致烟雾火焰检测精度低等问题,提出一种面向复杂背景下烟雾火焰检测的YOLOv8s改进模型。特征通道之间具有高度相似性,为了有效利用跨不同通道间的冗余,提高模型对烟雾火焰目标和背景的区分,设计了C2fFR(C2f with partial rep conv)轻量级特征提取模块。设计了MCFM(multi-scale context fusion module)多尺度上下文融合模块,来捕捉并利用上下文信息,增强特征的表示。使用Inner-SIoU损失函数,解决边界框不匹配的问题,提高模型对高IoU样本的回归能力。实验结果表明,改进后的YOLOv8s烟雾火焰检测模型相比于基线模型YOLOv8s,mAP@50提升了4.6个百分点,mAP@50:95提升了2.3个百分点,模型参数量降低了18.9%,计算量降低了8.1%,FPS为93帧/s,与其他主流检测算法相比也具有较好的检测性能。 展开更多
关键词 YOLOv8s C2fFR 多尺度上下文融合 Inner-SIoU
在线阅读 下载PDF
基于改进TransUNet的肺部图像分割
2
作者 石勇涛 邱康齐 +1 位作者 柳迪 杜威 《现代电子技术》 北大核心 2025年第15期27-36,共10页
语义分割作为肺部影像分析的关键步骤,其准确率直接关系进一步的图像分析和治疗决策。面对肺部器官不规则外形、模糊边界以及噪声等问题,传统分割方法存在边界分割精确度不高、易出现误差等问题。针对这些挑战,文中提出一种基于多尺度... 语义分割作为肺部影像分析的关键步骤,其准确率直接关系进一步的图像分析和治疗决策。面对肺部器官不规则外形、模糊边界以及噪声等问题,传统分割方法存在边界分割精确度不高、易出现误差等问题。针对这些挑战,文中提出一种基于多尺度边缘特征融合的神经网络(MSB-AffTransU2Net)用于肺部图像的分割。首先,替换了TransUNet中的编解码器,采用U2-Net的RSU模块来增强特征提取的性能;然后,使用注意力特征融合机制替换原本的Concat方法,以减少模型参数并且提升特征的融合效果;接着,加入了多尺度特征提取器以及边界引导的上下文聚合模块,以融合提取更加精确的肺部边缘特征;最后,为优化模型损失函数,采纳了Dice损失与交叉熵损失,创建了一个新颖的损失函数。在COVID-19 Radiography Database的COVID类数据集上验证了所提算法的有效性。实验结果证明,MSB-AffTransU2Net在COVID数据集上的前景交并比(pIoU)和平均准确率(mAcc)与TransUNet算法相比,分别提高了3.03%和0.72%,证明了所提算法的有效性。 展开更多
关键词 COVID-19 肺部图像分割 TransUNet 边缘特征 边界引导的上下文聚合模块 注意力特征融合
在线阅读 下载PDF
基于双阶段特征解耦网络的单幅图像去雨方法 被引量:1
3
作者 汤红忠 熊珮全 +2 位作者 王蔚 王晒雅 陈磊 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2024年第2期273-282,共10页
针对现有的单幅图像去雨方法无法有效地平衡背景图像细节恢复与有雨分量去除问题,提出一种基于双阶段特征解耦网络的单幅图像去雨方法,采用渐进式的学习方式从粗到细分阶段进行单幅图像去雨.首先构建压缩激励残差模块,实现背景图像与有... 针对现有的单幅图像去雨方法无法有效地平衡背景图像细节恢复与有雨分量去除问题,提出一种基于双阶段特征解耦网络的单幅图像去雨方法,采用渐进式的学习方式从粗到细分阶段进行单幅图像去雨.首先构建压缩激励残差模块,实现背景图像与有雨分量的初步分离;然后设计全局特征融合模块,其中特别引入特征解耦模块分离有雨分量和背景图像的特征,实现细粒度的图像去雨;最后利用重构损失、结构相似损失、边缘感知损失和纹理一致性损失构成的复合损失函数训练网络,实现高质量的无雨图像重构.实验结果表明,在Test100合成雨图数据集上,所提方法峰值信噪比为25.57dB,结构相似性为0.89;在100幅真实雨图上,所提方法的自然图像质量评估器为3.53,无参考图像空间质量评估器为20.16;在去雨后的RefineNet目标分割任务中,平均交并比为29.41%,平均像素精度为70.06%;视觉效果上,该方法能保留更多的背景图像特征,有效地辅助下游的目标分割任务的开展. 展开更多
关键词 特征解耦网络 压缩激励残差模块 全局特征融合模块 复合损失函数 单幅图像去雨
在线阅读 下载PDF
面向城市复杂场景的多尺度监督融合变化检测
4
作者 潘建平 谢鹏 +2 位作者 郭志豪 林娜 张慧娟 《遥感信息》 CSCD 北大核心 2024年第4期23-32,共10页
城市复杂场景中,地物形状多样,光照和成像角度变化大会导致变化检测结果受到干扰。为解决这些问题,文章提出了一种双上下文多尺度监督融合的网络模型(dual context multi-scale supervised fusion network model,DCMSFNet)。首先,在编... 城市复杂场景中,地物形状多样,光照和成像角度变化大会导致变化检测结果受到干扰。为解决这些问题,文章提出了一种双上下文多尺度监督融合的网络模型(dual context multi-scale supervised fusion network model,DCMSFNet)。首先,在编码部分使用双上下文增强模块获得地物丰富的全局上下文信息。在解码部分,采用级联的方法组合特征,然后通过自适应注意力模块捕捉不同尺度的变化关系,设计多尺度监督融合模块,增强深度网络融合,获得具有更高辨别能力的变化区域特征,将不同层级的输出结果与主网络的重构变化图融合形成最终的变化检测结果。该模型在LEVIR-CD和SYSU-CD变化检测数据集取得了较好的结果,F1-score分别提高了1.58%和2.17%,可更加精确识别复杂场景的变化区域,进一步减少无关因素引起的误检和漏检,且对目标地物边缘的检测更加平滑。 展开更多
关键词 深度学习 变化检测 双上下文增强 自适应注意力模块 多尺度监督融合
在线阅读 下载PDF
SwinEA:融合边缘感知的医学图像分割网络 被引量:3
5
作者 叶晋豫 李娇 +2 位作者 邓红霞 张瑞欣 李海芳 《计算机工程与设计》 北大核心 2024年第4期1149-1156,共8页
基于卷积神经网络的方法在医学图像分割任务中取得了显著成果,但该方法固有的归纳偏置使其不能很好地学习全局和长距离的语义信息交互,而Transformer的优势是关注全局信息,两者可以优势互补。因此提出一种针对分割边缘利用Swin Transfor... 基于卷积神经网络的方法在医学图像分割任务中取得了显著成果,但该方法固有的归纳偏置使其不能很好地学习全局和长距离的语义信息交互,而Transformer的优势是关注全局信息,两者可以优势互补。因此提出一种针对分割边缘利用Swin Transformer融合边缘感知的医学图像分割网络。设计基于上下文金字塔的边缘感知模块,用于融合全局的多尺度的上下文信息,针对边缘和角落等局部特征,利用浅层深度主干的特征产生丰富的边缘特征,因此提出的边缘感知模块可以尽可能多地产生边缘特征。在腹部多器官分割任务和心脏分割数据集的实验结果表明,该方法在各项指标中都有所提高。 展开更多
关键词 医学图像分割 移动窗口变形器 多头自注意力 边缘感知模块 上下文金字塔 多尺度特征 深度学习网络
在线阅读 下载PDF
基于局部特征增强的视网膜血管分割
6
作者 王倩 辛月兰 《激光杂志》 CAS 北大核心 2024年第4期216-222,共7页
视网膜血管具有细小复杂的特点,在对其进行分割时,经常出现噪点、断裂和欠分割等问题。针对此现象,提出一种基于局部特征增强的轻量化网络LRU-Net,以捕获更多细小血管特征。首先,在通道注意力模块中加入特征提取模块,对输入特征进行二... 视网膜血管具有细小复杂的特点,在对其进行分割时,经常出现噪点、断裂和欠分割等问题。针对此现象,提出一种基于局部特征增强的轻量化网络LRU-Net,以捕获更多细小血管特征。首先,在通道注意力模块中加入特征提取模块,对输入特征进行二次特征提取,以得到更多的细节特征;其次,设计了一个特征融合模块,在解码器中能更有效地融合高级和低级特性,加强最终的特征表示;最后,设计了一个上下文聚合模块,提取最深层特征不同分辨率的多尺度信息,然后进行拼接,使进入上采样的输入特征更加细化。在FIVES和OCTA-500数据集上的实验结果表明,与基础网络U-Net相比,本文所提方法在做到轻量化的同时,视网膜血管分割的准确度也有了一定的提升,在两个数据集上分别达到了98.45%、97.05%。 展开更多
关键词 特征增强 特征融合模块 上下文聚合模块 视网膜血管分割
在线阅读 下载PDF
基于改进PV-RCNN的3D目标检测算法实验研究 被引量:4
7
作者 傅荟璇 刘凌风 王宇超 《实验技术与管理》 CAS 北大核心 2022年第2期23-28,共6页
3D目标检测结合了深度信息,能够提供目标的位置、方向和大小等空间场景信息,在自动驾驶和机器人领域发展迅速。针对PV-RCNN在3D目标检测时不能够充分适应不同的物体尺度、不同的点云密度、部分变形和杂波等问题,对3D目标检测的任务进行... 3D目标检测结合了深度信息,能够提供目标的位置、方向和大小等空间场景信息,在自动驾驶和机器人领域发展迅速。针对PV-RCNN在3D目标检测时不能够充分适应不同的物体尺度、不同的点云密度、部分变形和杂波等问题,对3D目标检测的任务进行实验研究。通过加入自适应可变形卷积、上下文融合模块和Gumbel Subset Sampling模块来训练层级特征,使得编码关键点自适应地朝着最具有判别和代表性的特征对齐,提高提案框回归精度。实验结果表明,改进后的PV-RCNN 3D目标检测精度得到了提升,尤其是在远距离物体识别和检测方面。 展开更多
关键词 3D检测 PV-RCNN 自适应可变形卷积 上下文融合模块
在线阅读 下载PDF
基于光场焦点堆栈的鲁棒深度估计 被引量:3
8
作者 吉新新 朴永日 +2 位作者 张淼 贾令尧 李培华 《计算机学报》 EI CAS CSCD 北大核心 2022年第6期1226-1240,共15页
传统的深度估计方法通常利用普通相机记录的二维图像进行单目或多目深度估计.因这种方式仅利用了光线的强度信息,忽略了它的方向信息,其深度估计的效果并不理想.相比之下,光场记录的信息不仅包含了光线的强度信息,还包含了方向信息.因此... 传统的深度估计方法通常利用普通相机记录的二维图像进行单目或多目深度估计.因这种方式仅利用了光线的强度信息,忽略了它的方向信息,其深度估计的效果并不理想.相比之下,光场记录的信息不仅包含了光线的强度信息,还包含了方向信息.因此,基于深度学习的光场深度估计方法越来越引起该领域研究人员的关注,现已成为深度估计方向的研究热点.然而,目前大部分的研究工作从极平面图像(EPI)或子孔径图像着手进行深度估计,而不能有效利用焦点堆栈含有的丰富深度信息.为此,本文提出了基于光场焦点堆栈的鲁棒深度估计方法.本文设计了一种上下文推理单元(CRU),它能够有效地挖掘焦点堆栈和RGB图像的内部空间相关性.同时,本文提出了注意力引导的跨模态融合模块(CMFA),对上下文推理单元提取的空间相关性信息进行有效融合.为了验证本方法的准确性,在DUT-LFDD和LFSD数据集上进行了广泛的验证.实验结果表明,本文方法的准确率相比现有的EPINet和PADMM分别提高了1.2%和2.25%.为进一步证明本方法的有效性,我们在现有公开的手机数据集上进行了反复的测试.可视化测试结果表明,本方法在普通消费级手机获取的图像上亦可取得满意的效果,能够适应现实应用场景. 展开更多
关键词 光场 焦点堆栈 上下文推理单元 注意力机制 跨模态融合模块
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部