为了解决遥感图像语义分割任务中上下文依赖关系提取不足、空间细节信息损失导致分割精度下降等问题,提出了一种结合上下文与类别感知特征融合的语义分割方法。该方法首先以ResNet-50作为特征提取的主干网络,并在下采样中采用注意力模块...为了解决遥感图像语义分割任务中上下文依赖关系提取不足、空间细节信息损失导致分割精度下降等问题,提出了一种结合上下文与类别感知特征融合的语义分割方法。该方法首先以ResNet-50作为特征提取的主干网络,并在下采样中采用注意力模块,以增强特征表示和上下文依赖关系的提取;然后在跳跃连接上构建大尺寸的感受野块,提取丰富的多尺度上下文信息,以减少目标之间尺度变化的影响;其后并联场景特征关联融合模块,以全局特征来引导局部特征融合;最后在解码器部分构建类别预测模块和类别感知特征融合模块,准确融合底层的高级语义信息与高层的细节信息。将所提方法在Potsdam和Vaihingen数据集上验证可行性,并与DeepLabv3+,BuildFormer等6种常用方法进行对比实验,以验证其先进性。实验结果表明,所提方法在Recall, F1-score和Accuracy指标上均优于其他方法,尤其是对建筑物分割的交并比(intersection over union, IoU)在2个数据集上分别达到90.44%和86.74%,较次优网络DeepLabv3+和A2FPN分别提升了1.55%和2.41%。展开更多
针对遥感地物建筑物图像目标尺度差异大、样本空间分布不均衡、地物边界模糊、场景区域跨度大所导致的分割效果不佳问题,本文提出一种融合动态特征增强高精度遥感建筑物分割算法。首先,构建New_GhostNetV2网络,利用自适应上下文感知卷积...针对遥感地物建筑物图像目标尺度差异大、样本空间分布不均衡、地物边界模糊、场景区域跨度大所导致的分割效果不佳问题,本文提出一种融合动态特征增强高精度遥感建筑物分割算法。首先,构建New_GhostNetV2网络,利用自适应上下文感知卷积,增强算法对样本空间特征的捕捉能力。其次,采用Ghost Convolution结合跳跃连接和特征分支策略设计多层级信息增强模块,增强特征整合。随后引入级联注意力CGA(cascaded group attention),通过组内独立注意力计算,加强模型对多样化地物形态的适应性。最后,通过动态深度特征增强器构造特征融合模块,进一步加强模型捕获能力。在WHU数据集上实验结果表明:改进算法较基线模型F1-Score提高8.57%,mIoU提高12.48%,与其他主流语义分割模型相比,改进DeepLabv3+具有更好的分割精度。展开更多
文摘为了解决遥感图像语义分割任务中上下文依赖关系提取不足、空间细节信息损失导致分割精度下降等问题,提出了一种结合上下文与类别感知特征融合的语义分割方法。该方法首先以ResNet-50作为特征提取的主干网络,并在下采样中采用注意力模块,以增强特征表示和上下文依赖关系的提取;然后在跳跃连接上构建大尺寸的感受野块,提取丰富的多尺度上下文信息,以减少目标之间尺度变化的影响;其后并联场景特征关联融合模块,以全局特征来引导局部特征融合;最后在解码器部分构建类别预测模块和类别感知特征融合模块,准确融合底层的高级语义信息与高层的细节信息。将所提方法在Potsdam和Vaihingen数据集上验证可行性,并与DeepLabv3+,BuildFormer等6种常用方法进行对比实验,以验证其先进性。实验结果表明,所提方法在Recall, F1-score和Accuracy指标上均优于其他方法,尤其是对建筑物分割的交并比(intersection over union, IoU)在2个数据集上分别达到90.44%和86.74%,较次优网络DeepLabv3+和A2FPN分别提升了1.55%和2.41%。
文摘针对遥感地物建筑物图像目标尺度差异大、样本空间分布不均衡、地物边界模糊、场景区域跨度大所导致的分割效果不佳问题,本文提出一种融合动态特征增强高精度遥感建筑物分割算法。首先,构建New_GhostNetV2网络,利用自适应上下文感知卷积,增强算法对样本空间特征的捕捉能力。其次,采用Ghost Convolution结合跳跃连接和特征分支策略设计多层级信息增强模块,增强特征整合。随后引入级联注意力CGA(cascaded group attention),通过组内独立注意力计算,加强模型对多样化地物形态的适应性。最后,通过动态深度特征增强器构造特征融合模块,进一步加强模型捕获能力。在WHU数据集上实验结果表明:改进算法较基线模型F1-Score提高8.57%,mIoU提高12.48%,与其他主流语义分割模型相比,改进DeepLabv3+具有更好的分割精度。
文摘针对医学图像分割领域长期存在的多目标尺度变化大和边界模糊以致分割困难的问题,提出了一种新型的基于混洗特征编码和门控解码的双分支混合网络框架用于多器官精准分割.为了充分利用卷积神经网络(Convolutional Neural Network,CNN)在局部信息提取方面和Transformer在长程依赖关系建模方面的优势,采用U-Net和SwinUnet构建双分支网络.该方法的创新之处在于对不同网络分支的多个阶段学习到的高维特征进行混洗操作,通过双支路通道交叉融合的方式实现局部信息与全局信息的高效融合,加强了双分支网络在不同阶段间的信息交互,从而解决了图像目标轮廓模糊引起的分割精度受限的问题.此外,为了解决多器官尺度变化大的问题,进一步提出了一种全新的基于多尺度特征图的门控解码器(Gated Decoder based on Multi-scale Feature,GDMF).该解码器能够学习网络不同阶段的多尺度高维特征并进行自适应特征增强,采用注意力机制和特征映射来辅助获取精准目标信息.实验结果表明,与现有主流医学图像分割方法相比,所提方法在ACDC(Automated Cardiac Diagnosis Challenge)和FLARE21(Fast and Low GPU memory Abdominal oRgan sEgmentation challenge 2021)数据集上均表现出更优的性能,有效解决了医学图像中多目标尺度变化大和边界模糊问题.