期刊文献+
共找到673篇文章
< 1 2 34 >
每页显示 20 50 100
BDMFuse:Multi-scale network fusion for infrared and visible images based on base and detail features
1
作者 SI Hai-Ping ZHAO Wen-Rui +4 位作者 LI Ting-Ting LI Fei-Tao Fernando Bacao SUN Chang-Xia LI Yan-Ling 《红外与毫米波学报》 北大核心 2025年第2期289-298,共10页
The fusion of infrared and visible images should emphasize the salient targets in the infrared image while preserving the textural details of the visible images.To meet these requirements,an autoencoder-based method f... The fusion of infrared and visible images should emphasize the salient targets in the infrared image while preserving the textural details of the visible images.To meet these requirements,an autoencoder-based method for infrared and visible image fusion is proposed.The encoder designed according to the optimization objective consists of a base encoder and a detail encoder,which is used to extract low-frequency and high-frequency information from the image.This extraction may lead to some information not being captured,so a compensation encoder is proposed to supplement the missing information.Multi-scale decomposition is also employed to extract image features more comprehensively.The decoder combines low-frequency,high-frequency and supplementary information to obtain multi-scale features.Subsequently,the attention strategy and fusion module are introduced to perform multi-scale fusion for image reconstruction.Experimental results on three datasets show that the fused images generated by this network effectively retain salient targets while being more consistent with human visual perception. 展开更多
关键词 infrared image visible image image fusion encoder-decoder multi-scale features
在线阅读 下载PDF
Feature fusion method for edge detection of color images 被引量:4
2
作者 Ma Yu Gu Xiaodong Wang Yuanyuan 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2009年第2期394-399,共6页
A novel feature fusion method is proposed for the edge detection of color images. Except for the typical features used in edge detection, the color contrast similarity and the orientation consistency are also selected... A novel feature fusion method is proposed for the edge detection of color images. Except for the typical features used in edge detection, the color contrast similarity and the orientation consistency are also selected as the features. The four features are combined together as a parameter to detect the edges of color images. Experimental results show that the method can inhibit noisy edges and facilitate the detection for weak edges. It has a better performance than conventional methods in noisy environments. 展开更多
关键词 color image processing edge detection feature extraction feature fusion
在线阅读 下载PDF
Ship recognition based on HRRP via multi-scale sparse preserving method
3
作者 YANG Xueling ZHANG Gong SONG Hu 《Journal of Systems Engineering and Electronics》 SCIE CSCD 2024年第3期599-608,共10页
In order to extract the richer feature information of ship targets from sea clutter, and address the high dimensional data problem, a method termed as multi-scale fusion kernel sparse preserving projection(MSFKSPP) ba... In order to extract the richer feature information of ship targets from sea clutter, and address the high dimensional data problem, a method termed as multi-scale fusion kernel sparse preserving projection(MSFKSPP) based on the maximum margin criterion(MMC) is proposed for recognizing the class of ship targets utilizing the high-resolution range profile(HRRP). Multi-scale fusion is introduced to capture the local and detailed information in small-scale features, and the global and contour information in large-scale features, offering help to extract the edge information from sea clutter and further improving the target recognition accuracy. The proposed method can maximally preserve the multi-scale fusion sparse of data and maximize the class separability in the reduced dimensionality by reproducing kernel Hilbert space. Experimental results on the measured radar data show that the proposed method can effectively extract the features of ship target from sea clutter, further reduce the feature dimensionality, and improve target recognition performance. 展开更多
关键词 ship target recognition high-resolution range profile(HRRP) multi-scale fusion kernel sparse preserving projection(MSFKSPP) feature extraction dimensionality reduction
在线阅读 下载PDF
Underwater Image Enhancement Based on Multi-scale Adversarial Network
4
作者 ZENG Jun-yang SI Zhan-jun 《印刷与数字媒体技术研究》 CAS 北大核心 2024年第5期70-77,共8页
In this study,an underwater image enhancement method based on multi-scale adversarial network was proposed to solve the problem of detail blur and color distortion in underwater images.Firstly,the local features of ea... In this study,an underwater image enhancement method based on multi-scale adversarial network was proposed to solve the problem of detail blur and color distortion in underwater images.Firstly,the local features of each layer were enhanced into the global features by the proposed residual dense block,which ensured that the generated images retain more details.Secondly,a multi-scale structure was adopted to extract multi-scale semantic features of the original images.Finally,the features obtained from the dual channels were fused by an adaptive fusion module to further optimize the features.The discriminant network adopted the structure of the Markov discriminator.In addition,by constructing mean square error,structural similarity,and perceived color loss function,the generated image is consistent with the reference image in structure,color,and content.The experimental results showed that the enhanced underwater image deblurring effect of the proposed algorithm was good and the problem of underwater image color bias was effectively improved.In both subjective and objective evaluation indexes,the experimental results of the proposed algorithm are better than those of the comparison algorithm. 展开更多
关键词 Underwater image enhancement Generative adversarial network multi-scale feature extraction Residual dense block
在线阅读 下载PDF
Bidirectional parallel multi-branch convolution feature pyramid network for target detection in aerial images of swarm UAVs 被引量:4
5
作者 Lei Fu Wen-bin Gu +3 位作者 Wei Li Liang Chen Yong-bao Ai Hua-lei Wang 《Defence Technology(防务技术)》 SCIE EI CAS CSCD 2021年第4期1531-1541,共11页
In this paper,based on a bidirectional parallel multi-branch feature pyramid network(BPMFPN),a novel one-stage object detector called BPMFPN Det is proposed for real-time detection of ground multi-scale targets by swa... In this paper,based on a bidirectional parallel multi-branch feature pyramid network(BPMFPN),a novel one-stage object detector called BPMFPN Det is proposed for real-time detection of ground multi-scale targets by swarm unmanned aerial vehicles(UAVs).First,the bidirectional parallel multi-branch convolution modules are used to construct the feature pyramid to enhance the feature expression abilities of different scale feature layers.Next,the feature pyramid is integrated into the single-stage object detection framework to ensure real-time performance.In order to validate the effectiveness of the proposed algorithm,experiments are conducted on four datasets.For the PASCAL VOC dataset,the proposed algorithm achieves the mean average precision(mAP)of 85.4 on the VOC 2007 test set.With regard to the detection in optical remote sensing(DIOR)dataset,the proposed algorithm achieves 73.9 mAP.For vehicle detection in aerial imagery(VEDAI)dataset,the detection accuracy of small land vehicle(slv)targets reaches 97.4 mAP.For unmanned aerial vehicle detection and tracking(UAVDT)dataset,the proposed BPMFPN Det achieves the mAP of 48.75.Compared with the previous state-of-the-art methods,the results obtained by the proposed algorithm are more competitive.The experimental results demonstrate that the proposed algorithm can effectively solve the problem of real-time detection of ground multi-scale targets in aerial images of swarm UAVs. 展开更多
关键词 Aerial images Object detection feature pyramid networks multi-scale feature fusion Swarm UAVs
在线阅读 下载PDF
基于多源遥感数据的遥感影像生态地块划分方法 被引量:2
6
作者 李双营 《现代电子技术》 北大核心 2025年第5期142-146,共5页
为资源合理利用、生态保护与修复提供科学依据,文中提出基于多源遥感数据的遥感影像生态地块划分方法,实现了高精度生态地块划分。采用高频调制融合法逐像素融合处理采集的生态环境多源遥感影像;构建新的卷积神经网络(CNN),以融合后的... 为资源合理利用、生态保护与修复提供科学依据,文中提出基于多源遥感数据的遥感影像生态地块划分方法,实现了高精度生态地块划分。采用高频调制融合法逐像素融合处理采集的生态环境多源遥感影像;构建新的卷积神经网络(CNN),以融合后的高光谱影像为输入,通过在CNN中引入分组卷积和残差学习,实现输入高光谱影像多尺度特征提取,经过全连接层和softmax层的处理后,输出生态地块划分结果,并在softmax层中引入多分类Focal loss损失函数,解决生态地块划分结果产生的类别不平衡问题,提升生态地块划分精度。实验证明,该方法能够准确划分生态地块,划分精度平均值达到95.38%。融合后的多源遥感影像光谱扭曲度数值均低于20,可以确保融合影像在光谱信息上的高保真度,提高生态地块划分的准确性。 展开更多
关键词 多源遥感 遥感影像 生态地块 划分方法 高通滤波融合 高光谱影像 融合影像 特征提取
在线阅读 下载PDF
基于改进TCNN算法的脑电动态连续情绪识别研究
7
作者 揭丽琳 刘勇 +3 位作者 王铭勋 邹杨萌 徐亦璐 鲁宇明 《电子学报》 北大核心 2025年第4期1347-1360,共14页
在现实生活中,人类情绪具有动态和多样化的特征,受外部环境、社交互动以及个体内在状态的共同影响.针对脑电情绪识别研究通常局限于实验室的静态场景,未能充分考虑情绪的动态连续性的问题,本文提出了一种基于改进TCNN算法的脑电动态连... 在现实生活中,人类情绪具有动态和多样化的特征,受外部环境、社交互动以及个体内在状态的共同影响.针对脑电情绪识别研究通常局限于实验室的静态场景,未能充分考虑情绪的动态连续性的问题,本文提出了一种基于改进TCNN算法的脑电动态连续情绪识别方法 .首先,设计了适用于动态情境的脑电数据采集范式,使用64通道的脑电设备收集24名受试者在经历开心至平静、平静至开心、平静至悲伤、悲伤至平静、平静至紧张和紧张至平静六种动态连续情绪转变时的脑电信号,并进行了动态连续情绪标签的标注.其次,对现有的TCNN算法进行了改进,构建了一种双流网络模型进行动态连续情绪识别.该模型通过短期流利用时序卷积模块捕捉局部时间序列特征,而长期流则通过Transformer模块捕捉全局时间序列特征.最后,对提取的脑电特征进行特征层融合,以获得更加精准的动态连续情绪识别结果.结果表明:在采集的动态连续情绪数据集上,本文方法在六种情绪的valence和arousal上分别取得了最小误差均值0.083和0.084;在DEAP数据集上,valence和arousal的误差分别低至0.108和0.113.与四种传统机器学习算法以及GRU、CGRU、CNN、CNN-LSTM、CNN-Bi-LSTM、TCNN等六种深度学习模型相比,本文方法表现出了更高的识别精度和稳定性,能够有效满足应用场景的需求. 展开更多
关键词 脑电信号 情绪识别 特征提取 特征融合 双流网络模型
在线阅读 下载PDF
跨模态多层特征融合的遥感影像语义分割
8
作者 李智杰 程鑫 +3 位作者 李昌华 高元 薛靖裕 介军 《计算机科学与探索》 北大核心 2025年第4期989-1000,共12页
多模态语义分割网络能够利用不同模态中的互补信息来提高分割精度,在地物分类领域具有广泛的应用潜力。然而,现有的多模态遥感影像语义分割模型大多忽略了深度特征的几何形状信息,未将多层特征充分利用就进行融合,导致跨模态特征提取不... 多模态语义分割网络能够利用不同模态中的互补信息来提高分割精度,在地物分类领域具有广泛的应用潜力。然而,现有的多模态遥感影像语义分割模型大多忽略了深度特征的几何形状信息,未将多层特征充分利用就进行融合,导致跨模态特征提取不充分,融合效果不理想。针对这些问题,提出了一种基于多模态特征提取和多层特征融合的遥感影像语义分割模型。通过构建双分支编码器,模型能够分别提取遥感影像的光谱信息和归一化数字表面模型(nDSM)的高程信息,并深入挖掘nDSM的几何形状信息。引入跨层丰富模块细化完善每层特征,从深层到浅层充分利用多层的特征信息。完善后的特征通过注意力特征融合模块,对特征进行差异性互补和交叉融合,以减轻分支结构之间的差异,充分发挥多模态特征的优势,从而提高遥感影像分割精度。在ISPRS Vaihingen和Potsdam数据集上进行实验,mF1分数分别达到了90.88%和93.41%,平均交互比(mIoU)分别达到了83.49%和87.85%,相较于当前主流算法,该算法实现了更准确的遥感影像语义分割。 展开更多
关键词 遥感影像 归一化数字表面模型(nDSM) 语义分割 特征提取 特征融合
在线阅读 下载PDF
基于细节增强和多颜色空间学习的联合监督水下图像增强算法
9
作者 胡锐 程家亮 胡伏原 《现代电子技术》 北大核心 2025年第1期23-28,共6页
由于水下特殊的成像环境,水下图像往往具有严重的色偏雾化等现象。因此文中根据水下光学成像模型设计了一种新的增强算法,即基于细节增强和多颜色空间学习的无监督水下图像增强算法(UUIE-DEMCSL)。该算法设计了一种基于多颜色空间的增... 由于水下特殊的成像环境,水下图像往往具有严重的色偏雾化等现象。因此文中根据水下光学成像模型设计了一种新的增强算法,即基于细节增强和多颜色空间学习的无监督水下图像增强算法(UUIE-DEMCSL)。该算法设计了一种基于多颜色空间的增强网络,将输入转换为多个颜色空间(HSV、RGB、LAB)进行特征提取,并将提取到的特征融合,使得网络能学习到更多的图像特征信息,从而对输入图像进行更为精确的增强。最后,UUIE-DEMCSL根据水下光学成像模型和联合监督学习框架进行设计,使其更适合水下图像增强任务的应用场景。在不同数据集上大量的实验结果表明,文中提出的UUIE-DEMCSL算法能生成视觉质量良好的水下增强图像,且各项指标具有显著的优势。 展开更多
关键词 水下图像增强 多颜色空间学习 无监督学习 细节增强 特征提取 特征融合
在线阅读 下载PDF
基于ConvNeXt与双特征提取分支的水体提取方法
10
作者 周珂 常然然 +3 位作者 徐西志 苗茹 张广雨 王嘉茜 《计算机科学与探索》 北大核心 2025年第5期1264-1279,共16页
由于复杂的光谱混合物、地物边界模糊、环境噪声等因素的共同作用,从高分辨率遥感图像中准确识别水体边界极具挑战性。针对此问题,在PSPNet的基础上提出基于ConvNeXt与双特征提取分支的水体提取方法(CoNFM-Net)。在编码器阶段,以ConvNeX... 由于复杂的光谱混合物、地物边界模糊、环境噪声等因素的共同作用,从高分辨率遥感图像中准确识别水体边界极具挑战性。针对此问题,在PSPNet的基础上提出基于ConvNeXt与双特征提取分支的水体提取方法(CoNFM-Net)。在编码器阶段,以ConvNeXt代替ResNet50作为主干网络,利用逆瓶颈层、大卷积核等设计来增强网络的特征提取能力。在解码器阶段,设计了多尺度特征融合和上下文信息增强的双特征提取分支结构,多尺度特征融合分支为有效利用主干网络产生的多层次特征图,设计了一种双向特征融合模块(BiFFM),以解决边界识别中尺度不一致的问题;上下文信息增强分支为提高全局信息的利用率,将主干网络输出的深层特征图通过全局上下文信息获取模块(GCIM)。同时,将经过多尺度特征融合分支的最深层特征图与其进行拼接,增强模型对水体边界细节的捕捉能力。实验结果表明,该方法在LoveDA数据集、高分二号(GF-2)数据集及Sentinel-2数据集上的平均交并比和F1分数分别为89.64%、94.32%,92.60%、96.16%及93.72%、96.73%,且在同样环境下,与U-Net、DANet、CMTFNet等语义分割算法相比,该算法CoNFM-Net具有一定优势。 展开更多
关键词 水体提取 ConvNeXt 高分辨率遥感影像 特征融合 双特征提取分支结构
在线阅读 下载PDF
基于扩散模型的遥感图像变化检测方法
11
作者 李克文 蒋衡杰 +2 位作者 李国庆 姚贤哲 刘文龙 《计算机工程与设计》 北大核心 2025年第2期337-344,共8页
针对遥感图像人工标注耗时且昂贵的缺点,提出一种两阶段的变化检测方法。通过预训练去噪扩散概率模型来利用这些现成的、未标注的遥感图像信息,利用从扩散模型主干网络U-Net的后半部分编码器中获取的多尺度特征来训练一个轻量级的变化... 针对遥感图像人工标注耗时且昂贵的缺点,提出一种两阶段的变化检测方法。通过预训练去噪扩散概率模型来利用这些现成的、未标注的遥感图像信息,利用从扩散模型主干网络U-Net的后半部分编码器中获取的多尺度特征来训练一个轻量级的变化检测头部。通过同时处理不同加噪时间步的遥感图像,基于噪声水平进行加权融合进一步提升模型对变化相关信息的敏感性。在LEVIR-CD和WHU-CD数据集上的对比实验结果表明,该方法有效提高了识别精度。 展开更多
关键词 变化检测 深度学习 预训练 特征融合 特征提取 扩散模型 无监督训练
在线阅读 下载PDF
基于多维度动态加权alpha图像融合与特征增强的恶意软件检测方法
12
作者 谢丽霞 魏晨阳 +2 位作者 杨宏宇 胡泽 成翔 《电子学报》 北大核心 2025年第3期849-863,共15页
针对现有恶意软件检测方法缺乏对样本特征的有效提取、过度依赖领域专家知识和运行行为监控,导致严重影响检测分类性能的问题,提出一种基于多维度动态加权alpha图像融合与特征增强的恶意软件检测方法 .通过无效样本清洗与异常值处理获... 针对现有恶意软件检测方法缺乏对样本特征的有效提取、过度依赖领域专家知识和运行行为监控,导致严重影响检测分类性能的问题,提出一种基于多维度动态加权alpha图像融合与特征增强的恶意软件检测方法 .通过无效样本清洗与异常值处理获得标准化样本集,利用三通道图像生成与多维度动态加权alpha图像融合方法生成高质量融合图像样本.采用傀儡优化算法进行数据重构,减少因数据类不平衡对检测结果造成的影响,并对重构数据样本进行图像增强.通过基于双分支特征提取与融合通道信息表示的空间注意力增强网络,分别提取图像特征和文本特征并进行特征增强,提高特征表达能力.通过加权融合的方法将增强的图像特征与文本特征进行融合,实现恶意软件家族的检测分类.实验结果表明,本文所提方法在BIG2015数据集上的恶意软件检测分类准确率为99.72%,与现有检测方法相比提升幅度为0.22~2.50个百分点. 展开更多
关键词 恶意软件检测 图像融合 傀儡优化算法 双分支特征提取 数据重构 特征增强
在线阅读 下载PDF
基于立体感感知的全景图像质量评价算法
13
作者 安平 汤旭锋 +1 位作者 杨超 黄新彭 《信号处理》 北大核心 2025年第4期759-769,共11页
无参考全景图像质量评价旨在客观衡量全景图像的人类视觉感知质量,而无需依赖原始图像的质量信息。随着虚拟现实技术的迅猛发展,全景图像质量评价的重要性日益凸显。然而,现有全景图像质量评价算法仍存在着一些限制,如不能很好模拟观察... 无参考全景图像质量评价旨在客观衡量全景图像的人类视觉感知质量,而无需依赖原始图像的质量信息。随着虚拟现实技术的迅猛发展,全景图像质量评价的重要性日益凸显。然而,现有全景图像质量评价算法仍存在着一些限制,如不能很好模拟观察者的浏览过程、未能有效考虑观看者的立体感知过程等。这严重影响了全景图像质量评价的准确性。为解决这一问题,本文提出一种基于沉浸式立体感知和视口感知交互的无参考全景图像质量评价算法。首先,设计一种视口提取策略,通过在球形域上提取特征视点,选择具有较高被观察概率的视点。对选定的视点提取相应的视口内容,并将多个视口内容并行输入特征编码器,以实现多尺度视口特征的提取。随后,鉴于当前实现多个视口间信息交互的方式尚存在局限性,本文提出一个视口特征交互模块,旨在实现对输入的多个视口内容进行跨视口的信息交互。最后,本文还探索了在缺乏视口采样的情况下,利用整个全景图像实现对立体感信息的获取,以实现对立体感过程建模从而提高整体评价性能。实验结果证明了本文提出算法的有效性,与当前最先进的质量评价算法相比之下,斯皮尔曼等级相关系数(Spearman Rank Order Correlation Coefficient,SROCC)指标和皮尔逊线性相关系数(Linear Pearson Correlation Coefficient,PLCC)在公开数据集CVIQD上分别达到0.72%和0.70%的提升,而在数据集OIQA上分别达到了1.10%和0.54%的提升。 展开更多
关键词 全景图像质量评价 视口提取 球面卷积 特征融合
在线阅读 下载PDF
基于注意力尺度序列融合的车辆行人检测算法
14
作者 李军 邹军 +1 位作者 陈翠 张世义 《重庆交通大学学报(自然科学版)》 北大核心 2025年第7期75-82,共8页
针对在路侧端车辆与行人检测中存在检测精度低,漏检率较高等问题,提出了一种注意力尺度序列融合的车辆行人检测算法YOLOv8-APC。首先,在颈部网络中使用尺度序列融合模块SSFF与三特征编码器TFE,以增强对多尺度信息的提取与融合,同时引入... 针对在路侧端车辆与行人检测中存在检测精度低,漏检率较高等问题,提出了一种注意力尺度序列融合的车辆行人检测算法YOLOv8-APC。首先,在颈部网络中使用尺度序列融合模块SSFF与三特征编码器TFE,以增强对多尺度信息的提取与融合,同时引入通道与位置注意力机制CPAM提高检测精度。然后,在改进后的网络结构基础上增加P2检测层,提高对小目标的检测能力,降低漏检率。最后,在主干网络中应用C2f_GhostDynamicConv(C2f_GDC)模块,有效降低模型的复杂度。为验证算法的有效性,在重庆科学谷示范区路侧端数据集Vapddsits上进行验证,实验结果表明:YOLOv8-APC的mAP50值与召回率较原模型提升了11.1%、11.9%;参数量与模型体积分别仅有1.85 M、4.1 MB,分别较原模型下降了38.3%、34.9%,其对远距离小目标以及遮挡目标能够实现更为准确的检测,且不会占用过多的内存资源,为路侧端车辆行人检测提供了一种解决方案。 展开更多
关键词 交通运输工程 YOLOv8 车辆与行人 特征提取 注意力机制 尺度序列融合
在线阅读 下载PDF
多层次精细化无人机图像目标检测
15
作者 肖振久 赖思宇 曲海成 《光电工程》 北大核心 2025年第5期34-49,共16页
针对无人机图像中背景复杂、光线多变、目标遮挡及尺度不一导致的漏检、误检问题,提出一种多层次精细化无人机图像目标检测算法。首先,结合多尺度特征提取与特征融合增强策略,设计CSP-SMSFF(cross stage partial selective multi-scale ... 针对无人机图像中背景复杂、光线多变、目标遮挡及尺度不一导致的漏检、误检问题,提出一种多层次精细化无人机图像目标检测算法。首先,结合多尺度特征提取与特征融合增强策略,设计CSP-SMSFF(cross stage partial selective multi-scale feature fusion)模块,该模块通过递增卷积核与通道融合,精确捕获多尺度目标特征。其次,引入AFGCAttention(adaptive fine-grained channel attention)机制,通过动态调优机制优化通道特征表达,增强算法对多尺度重要样本特征的感知力与判别力及细粒度映射信息的保留能力,抑制背景噪声,改善漏检情况。而后,设计SGCE-Head(shared group convolution efficient head)检测头,利用EMSPConv(efficient multi-scale convolution)卷积实现对空间通道维度中全局重要特征与局部细节信息的精准捕获,增强对多尺度特征的定位与识别能力,改善误检问题。最后,提出Inner-Powerful-IoUv2损失函数,通过动态梯度加权与分层IoU优化,平衡不同质量样本的定位权重,增强模型对模糊目标的检测能力。采用数据集VisDrone2019和VisDrone2021进行实验,结果表明,该方法mAP@0.5数值达到了47.5%和45.3%,较基线模型分别提升5.7%和4.7%,优于对比算法。 展开更多
关键词 无人机图像 目标检测 多尺度特征提取与融合 自适应细粒度通道注意力 EMSPConv
在线阅读 下载PDF
基于改进YOLO v8的玉米大豆间套复种作物行导航线提取方法
16
作者 朱惠斌 李仕 +3 位作者 白丽珍 王明鹏 贾宇轩 兰冀贤 《农业机械学报》 北大核心 2025年第6期205-217,共13页
针对玉米大豆间套复种场景下导航线提取算法在复杂农田环境中精度低和适应性差等问题,提出一种基于改进YOLO v8的作物行间导航线提取方法,以提升自主移动底盘在田间作业中的导航精度。针对玉米大豆作物行间专项分割任务,以YOLO v8为基... 针对玉米大豆间套复种场景下导航线提取算法在复杂农田环境中精度低和适应性差等问题,提出一种基于改进YOLO v8的作物行间导航线提取方法,以提升自主移动底盘在田间作业中的导航精度。针对玉米大豆作物行间专项分割任务,以YOLO v8为基础融合StarNet网络,并优化检测头构建了StarNet-YOLO主干网络。通过自主设计的ASPPFE模块、深度可分离卷积和CSE结构等策略优化,同时利用LAMP剪枝算法对其轻量化。此外,引入Douglas-Peucker算法获取逼近作物行间轮廓,并提出评分机制确定轮廓的起始线段和终点线段中点,进而实现作物行导航线的精确拟合。消融试验结果表明,ASPPFE的mAP50seg(交并比为0.5时实例分割的平均精度均值)达到99.5%,其mAP50-95seg(交并比为0.5~0.95时实例分割的平均精度均值)比SPPELAN、SPPF和ASPPF分别提升1.0、1.0、0.4个百分点。经剪枝率25%优化后的StarNet-YOLO网络,mAP50-95seg仅降低0.02个百分点,而推理速度从390 f/s提升至563 f/s,浮点运算量从7.2×10^(9)降至4.7×10^(9)。在同一数据集下对YOLO v5、YOLO v7、YOLO v8和改进YOLO v8进行对比发现,StarNet-YOLO网络mAP50-95seg比其他3种算法分别提升5.5、4.8、2.8个百分点。作物行间导航线拟合验证结果表明,平均角度误差和距离误差分别为2.01°和23.17像素。在复杂农田环境下本文导航线提取算法表现出优异性能,实现检测速度与精度平衡,为玉米大豆等农作物田间作业自主机器人视觉导航提供了新的技术思路。 展开更多
关键词 玉米大豆间套复种 作物行间检测 导航线提取 改进YOLO v8 多尺度融合
在线阅读 下载PDF
基于特征融合和网络采样的点云配准
17
作者 陆军 王文豪 杜宏劲 《智能系统学报》 北大核心 2025年第3期621-630,共10页
针对点云配准过程中,下采样时容易丢失关键点、影响配准精度的问题,本文提出一种基于特征融合和网络采样的配准方法,提高了配准的精度和速度。在PointNet分类网络基础上,引入小型注意力机制,设计一种基于深度学习网络的关键点提取方法,... 针对点云配准过程中,下采样时容易丢失关键点、影响配准精度的问题,本文提出一种基于特征融合和网络采样的配准方法,提高了配准的精度和速度。在PointNet分类网络基础上,引入小型注意力机制,设计一种基于深度学习网络的关键点提取方法,将局部特征和全局特征融合,得到混合特征的特征矩阵。通过深度学习实现对应矩阵求解中相关参数的自动优化,最后利用加权奇异值分解(singular value decomposition,SVD)得到变换矩阵,完成配准。在ModelNet40数据集上的实验表明,和最远点采样相比,所提算法耗时减少45.36%;而配准结果和基于特征学习的鲁棒点匹配(robust point matching using learned features,RPM-Net)相比,平移矩阵均方误差降低5.67%,旋转矩阵均方误差降低13.1%。在自制点云数据上的实验,证实了算法在真实物体上配准的有效性。 展开更多
关键词 点云配准 特征融合 深度学习 网络采样 三维视觉 局部特征 全局特征 特征提取
在线阅读 下载PDF
基于直觉模糊集熵测度和显著特征检测的古铜镜X光图像融合
18
作者 吴萌 张倩文 +2 位作者 孙增国 相建凯 郭歌 《光学精密工程》 北大核心 2025年第2期262-281,共20页
针对被锈蚀覆盖的古铜镜因镜缘与镜心区域厚度不均,单能X射线无法检测出完整的纹饰和病害信息的问题,本文提出一种直觉模糊集熵测度和显著特征检测的古铜镜X光图像融合方法。首先,引入有效引导滤波对高能量X光图像的纹饰结构做对比度增... 针对被锈蚀覆盖的古铜镜因镜缘与镜心区域厚度不均,单能X射线无法检测出完整的纹饰和病害信息的问题,本文提出一种直觉模糊集熵测度和显著特征检测的古铜镜X光图像融合方法。首先,引入有效引导滤波对高能量X光图像的纹饰结构做对比度增强。接着,采用联合双边滤波和结构-纹理分解策略设计三个尺度分解模型,以提取不同能量X光图像的能量层、残差层和细节层信息。其次,能量层通过l1-max规则得到融合后的能量图像,残差层利用直觉模糊集熵测度构造小尺度纹理特征融合模块,细节层结合扩展差分高斯与空间频率增强算子构建复合型显著特征检测策略。最后,将能量融合图、残差融合图和细节融合图相加得到最终融合结果。实验结果表明,本文方法的6种客观评价指标AG,SF,SD,SCD,NAB/F和SSIM相较于对比方法分别平均提高了23.59%,22.99%,16.12%,42.55%,17.07%,20.54%,融合结果可以有效保留古铜镜清晰的纹饰细节和病害裂隙的关键特征,在对比度和结构保持等方面都优于其他对比方法。 展开更多
关键词 图像融合 边缘保持滤波 三尺度分解 纹理提取 直觉模糊集熵测度 显著特征检测
在线阅读 下载PDF
结合注意力特征融合的路面裂缝检测
19
作者 谢永华 厉涛 柏勇 《计算机工程与设计》 北大核心 2025年第1期307-313,共7页
为解决路面裂缝检测中裂缝漏检和定位不准的问题,提出一个结合注意力特征融合的可端到端训练的路面裂缝检测网络。基于Resnet-50结构设计,在特征融合部分添加注意力特征融合模块,通过注意力掩码学习,动态调整浅层特征与深层特征融合权重... 为解决路面裂缝检测中裂缝漏检和定位不准的问题,提出一个结合注意力特征融合的可端到端训练的路面裂缝检测网络。基于Resnet-50结构设计,在特征融合部分添加注意力特征融合模块,通过注意力掩码学习,动态调整浅层特征与深层特征融合权重,突出有用信息,解决裂缝漏检问题;在编码器部分,改进浅层特征与深层特征的选取方式,提升特征融合效果和检测精度。实验结果表明,该网络在各项指标上均优于其它对比网络,具有较高的检测精度。 展开更多
关键词 裂缝检测 深度学习 语义分割 卷积网络 注意力机制 特征融合 特征提取
在线阅读 下载PDF
结合多区域特征和特征融合的微表情识别
20
作者 曹春萍 张迪 《小型微型计算机系统》 北大核心 2025年第8期1986-1992,共7页
微表情运动微弱、短暂和局部化的特点,使得难以从微表情视频序列中相关的局部区域中提取有效特征,进而导致准确识别微表情变得十分困难.针对上述问题,基于残差网络和长短期记忆网络,提出一种结合多区域特征提取模块(Multi-region Featur... 微表情运动微弱、短暂和局部化的特点,使得难以从微表情视频序列中相关的局部区域中提取有效特征,进而导致准确识别微表情变得十分困难.针对上述问题,基于残差网络和长短期记忆网络,提出一种结合多区域特征提取模块(Multi-region Feature Extraction Module,MFEM)和多层特征融合模块(Multi-level Feature Fusion Module,MFFM)的微表情识别方法.首先,对微表情视频序列采用欧拉视频放大算法实现运动增强得到灰度序列,并结合TV-L1光流法的光流序列作为输入.有效特征提取阶段中,利用MFEM模块提取多个相关的局部区域中的显著特征,增强网络提取有效特征的能力;通过MFFM模块减少信息丢失,产生更综合的特征,提高模型学习微表情特征的能力;然后进行时序建模并分类.在casme2和samm数据集上进行实验,准确率分别达到84.959%、74.265%,UF1分别为0.855和0.604,优于现有方法. 展开更多
关键词 微表情识别 残差网络 多区域特征提取 多层特征融合
在线阅读 下载PDF
上一页 1 2 34 下一页 到第
使用帮助 返回顶部