为使桥梁病害检测更加高效、客观和智能,提出一种自动识别并定量计算混凝土病害尺寸的方法。该方法采用视觉几何组网络(Visual Geometry Group Network,VGG)作为U形网络(U-Net)的主干网络,对混凝土病害(剥落、裂缝和露筋)图像进行语义分...为使桥梁病害检测更加高效、客观和智能,提出一种自动识别并定量计算混凝土病害尺寸的方法。该方法采用视觉几何组网络(Visual Geometry Group Network,VGG)作为U形网络(U-Net)的主干网络,对混凝土病害(剥落、裂缝和露筋)图像进行语义分割,采用数学形态学算法对图像中的病害区域进行优化。通过MATLAB软件计算得到优化后的分割图像中病害区域像素点的数量,并利用参照物标定出图像中单个像素点的尺寸,计算得到混凝土病害的面积(或长度)。采用该方法对河南省许昌市17座现役钢筋混凝土桥梁病害图像进行语义分割实验。结果表明:U-Net能以较高的精度对复杂背景下混凝土桥梁多类病害进行像素级的分类,类别平均像素准确率为90.53%,平均交并比为80.54%。使用数学形态学对语义分割图像进行优化后,计算精度明显提高,优化后的误差绝对值为0.08%~0.21%。展开更多
针对遥感图像建筑物的轮廓分割不完整、边界分割模糊和阴影干扰等导致的错误分割问题,提出一种基于VGG16的卷积块注意力深度可分离卷积U-Net网络(VGG16 Convolutional Block Attention and Deep Separable Convolution U-Net,VCDG-UNet...针对遥感图像建筑物的轮廓分割不完整、边界分割模糊和阴影干扰等导致的错误分割问题,提出一种基于VGG16的卷积块注意力深度可分离卷积U-Net网络(VGG16 Convolutional Block Attention and Deep Separable Convolution U-Net,VCDG-UNet)。为对建筑物特征进行提取,编码器部分模型以具有强大特征提取能力的VGG16作为骨干网络;解码器部分用深度可分离卷积代替普通卷积来减少参数量并融合不同尺度的特征;引入卷积块注意力模块(Convolutional Block Attention Module,CBAM)加入跳跃连接中,使其更有效地从不同尺度的图像中提取上下文信息并提高其对重要区域的关注度;为解决网络训练过程中的梯度消失问题,使用了高斯误差线性单元(Gaussian Error Linear Unit,GELU)。实验结果显示,改进后的网络在WHU和INRIA数据集上的平均交并比(mean Intersection over Union,mIoU)和F1-score分别达到了94.20%、96.83%和89.69%、94.51%,相较于基础模型高出了1.59%、0.76%和2.8%、1.59%。展开更多
文摘为使桥梁病害检测更加高效、客观和智能,提出一种自动识别并定量计算混凝土病害尺寸的方法。该方法采用视觉几何组网络(Visual Geometry Group Network,VGG)作为U形网络(U-Net)的主干网络,对混凝土病害(剥落、裂缝和露筋)图像进行语义分割,采用数学形态学算法对图像中的病害区域进行优化。通过MATLAB软件计算得到优化后的分割图像中病害区域像素点的数量,并利用参照物标定出图像中单个像素点的尺寸,计算得到混凝土病害的面积(或长度)。采用该方法对河南省许昌市17座现役钢筋混凝土桥梁病害图像进行语义分割实验。结果表明:U-Net能以较高的精度对复杂背景下混凝土桥梁多类病害进行像素级的分类,类别平均像素准确率为90.53%,平均交并比为80.54%。使用数学形态学对语义分割图像进行优化后,计算精度明显提高,优化后的误差绝对值为0.08%~0.21%。
文摘针对遥感图像建筑物的轮廓分割不完整、边界分割模糊和阴影干扰等导致的错误分割问题,提出一种基于VGG16的卷积块注意力深度可分离卷积U-Net网络(VGG16 Convolutional Block Attention and Deep Separable Convolution U-Net,VCDG-UNet)。为对建筑物特征进行提取,编码器部分模型以具有强大特征提取能力的VGG16作为骨干网络;解码器部分用深度可分离卷积代替普通卷积来减少参数量并融合不同尺度的特征;引入卷积块注意力模块(Convolutional Block Attention Module,CBAM)加入跳跃连接中,使其更有效地从不同尺度的图像中提取上下文信息并提高其对重要区域的关注度;为解决网络训练过程中的梯度消失问题,使用了高斯误差线性单元(Gaussian Error Linear Unit,GELU)。实验结果显示,改进后的网络在WHU和INRIA数据集上的平均交并比(mean Intersection over Union,mIoU)和F1-score分别达到了94.20%、96.83%和89.69%、94.51%,相较于基础模型高出了1.59%、0.76%和2.8%、1.59%。