传统伪装效果评估方法仅关注图像底层特征,特征提取依赖于先验知识,导致其鲁棒性较低、迁移性较差、检测性能欠佳。YOLO系列网络模型的引入虽提升了评估效率,但准确性仍有待提升。针对这些问题,提出了基于孪生多尺度特征和注意力机制的...传统伪装效果评估方法仅关注图像底层特征,特征提取依赖于先验知识,导致其鲁棒性较低、迁移性较差、检测性能欠佳。YOLO系列网络模型的引入虽提升了评估效率,但准确性仍有待提升。针对这些问题,提出了基于孪生多尺度特征和注意力机制的迷彩伪装效果评估模型SMANet(Siamese multiscale features and attention network)。通过基于特征融合与边缘检测的模型F2-EDNet(feature fusion and edge detection net)的主干网络,提取伪装目标及其所处背景的多尺度上下文特征信息,并引入基于注意力机制的相似度预测模块,模拟人眼观察事物的注意力行为,细化了图像特征信息,进一步提升了模型对有效特征的敏感度。实验结果表明,SMANet模型准确率、精确率以及召回率分别达到80%、75%和80%,相比传统的和基于YOLO模型的伪装效果评估方法,更接近人眼视觉的真实感知。展开更多
宫颈上皮内瘤变(Cervical Intraepithelial Neoplasm,CIN)是宫颈浸润癌变相关度较高的癌前病变,准确检测CIN并对其分类处理有利于减少宫颈癌重症率。针对宫颈病变检测与分类准确率低等问题,文中提出一种融合多尺度特征与多注意力机制的Y...宫颈上皮内瘤变(Cervical Intraepithelial Neoplasm,CIN)是宫颈浸润癌变相关度较高的癌前病变,准确检测CIN并对其分类处理有利于减少宫颈癌重症率。针对宫颈病变检测与分类准确率低等问题,文中提出一种融合多尺度特征与多注意力机制的YOLOv5-CBTR(You Only Look Once version 5-Convolutional Block Transformer)宫颈病变图像检测方法。主干网络采用带有SENet(Squeeze-and-Excitation Networks)注意力机制的SE-CSP(SENet-BottleneckCSP)进行特征提取。引入Transformer编码器模块,融合多特征信息并放大,采用多头注意力机制增强病变区域的特征提取能力。在特征融合层引入卷积注意力模块,多尺度融合病变特征信息。在边界回归框计算中引入幂变换,加快模型损失函数的收敛,整体实现宫颈病变的检测与分类。实验结果表明,YOLOv5-CBTR模型对RGB(白光)宫颈病变图像检测与分类的准确率、召回率、mAP(mean Average Precision)和F值分别为93.99%、92.91%、92.80%和93.45%,在多光谱宫颈图像检测与分类中模型的mAP值和F值分别为97.68%和95.23%。展开更多
文摘传统伪装效果评估方法仅关注图像底层特征,特征提取依赖于先验知识,导致其鲁棒性较低、迁移性较差、检测性能欠佳。YOLO系列网络模型的引入虽提升了评估效率,但准确性仍有待提升。针对这些问题,提出了基于孪生多尺度特征和注意力机制的迷彩伪装效果评估模型SMANet(Siamese multiscale features and attention network)。通过基于特征融合与边缘检测的模型F2-EDNet(feature fusion and edge detection net)的主干网络,提取伪装目标及其所处背景的多尺度上下文特征信息,并引入基于注意力机制的相似度预测模块,模拟人眼观察事物的注意力行为,细化了图像特征信息,进一步提升了模型对有效特征的敏感度。实验结果表明,SMANet模型准确率、精确率以及召回率分别达到80%、75%和80%,相比传统的和基于YOLO模型的伪装效果评估方法,更接近人眼视觉的真实感知。
文摘宫颈上皮内瘤变(Cervical Intraepithelial Neoplasm,CIN)是宫颈浸润癌变相关度较高的癌前病变,准确检测CIN并对其分类处理有利于减少宫颈癌重症率。针对宫颈病变检测与分类准确率低等问题,文中提出一种融合多尺度特征与多注意力机制的YOLOv5-CBTR(You Only Look Once version 5-Convolutional Block Transformer)宫颈病变图像检测方法。主干网络采用带有SENet(Squeeze-and-Excitation Networks)注意力机制的SE-CSP(SENet-BottleneckCSP)进行特征提取。引入Transformer编码器模块,融合多特征信息并放大,采用多头注意力机制增强病变区域的特征提取能力。在特征融合层引入卷积注意力模块,多尺度融合病变特征信息。在边界回归框计算中引入幂变换,加快模型损失函数的收敛,整体实现宫颈病变的检测与分类。实验结果表明,YOLOv5-CBTR模型对RGB(白光)宫颈病变图像检测与分类的准确率、召回率、mAP(mean Average Precision)和F值分别为93.99%、92.91%、92.80%和93.45%,在多光谱宫颈图像检测与分类中模型的mAP值和F值分别为97.68%和95.23%。