期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于细粒度多层次特征分离的轴承寿命预测
1
作者 李春龙 刘扬 +4 位作者 辛鑫 秦红燕 吕明康 卫冲 赵振 《机电工程》 北大核心 2025年第8期1479-1489,共11页
在多源域迁移学习中强行共享源域和目标域私有特征会引起噪声干扰从而降低预测性能,在特征对齐过程中未考虑统筹全局和局部的特征,会造成跨工况轴承剩余使用寿命(RUL)预测精确性缺乏的问题。为此,提出了一种基于细粒度多层次特征分离(FG... 在多源域迁移学习中强行共享源域和目标域私有特征会引起噪声干扰从而降低预测性能,在特征对齐过程中未考虑统筹全局和局部的特征,会造成跨工况轴承剩余使用寿命(RUL)预测精确性缺乏的问题。为此,提出了一种基于细粒度多层次特征分离(FGMLFS)的多工况滚动轴承RUL预测方法。首先,设计了特定领域学习模块用于学习每个域的特定表示,去除了领域特定的私有特征,保留了域间可迁移的通用特征,并利用独立成分分析和相对熵有效分离域不变和域特定表示,确保了域间特征的一致性;然后,构建了多层次细粒度对齐模块,依据最大均值差异(MMD)和局部加权MMD策略,对域级和类别级特征进行了对齐,减少了源域与目标域的分布差异;最后,引入了辅助分类器模块,设计了动态加权最小类混淆损失优化特征空间对齐质量,增强了模型的预测准确性,采用滚动轴承PHM2012数据集对提出的FGMLFS方法进行了实验验证。研究结果表明:FGMLFS方法与改进的残差卷积域自适应网络(ERCDAN)相比,预测得分提升了0.14,且平均绝对误差和均方根误差降低了0.11和0.12。该结果验证了FGMLFS方法在轴承寿命预测中的有效性。 展开更多
关键词 剩余使用寿命预测 特征分离 子域自适应 迁移学习 最大均值差异 相对熵 改进的残差卷积域自适应网络 细粒度多层次特征分离
在线阅读 下载PDF
基于质量感知域适应的水下图像增强质量评价 被引量:1
2
作者 田芷欣 姜求平 《信号处理》 北大核心 2025年第2期290-301,共12页
随着水下研究领域对高质量水下图像需求的不断增长,水下图像增强(underwater image enhancement,UIE)算法已经得到了广泛应用。为了评估这些水下增强图像的质量,研究者提出了一些水下图像增强质量评估(underwater image enhancement qua... 随着水下研究领域对高质量水下图像需求的不断增长,水下图像增强(underwater image enhancement,UIE)算法已经得到了广泛应用。为了评估这些水下增强图像的质量,研究者提出了一些水下图像增强质量评估(underwater image enhancement quality assessment,UIEQA)算法。然而,在已知水下场景上训练的UIEQA算法往往难以在未知水下场景中有效推广应用。此外,现有的UIEQA算法通常依赖于大量标注数据,而这些数据的获取通常非常困难且耗费资源。为了解决以上两个问题,本文提出了基于质量感知域适应的水下图像增强质量评价(quality-aware domain adaptation-based underwater image enhancement quality assessment,QaDA-UIEQA)算法。具体来说,该方法包括一个质量评价模块和一个质量感知域适应模块。首先,利用质量评价模块对源域数据进行有监督的质量评价训练,确保主任务的准确性。其次,质量感知域适应模块以文本信息为引导,利用跨注意力(cross attention,CA)模块从视觉特征信息中提取与质量特性相关的重要信息。随后,利用域适应技术缩小源域和目标域在质量特性上的差距,从而使得在已知水下场景上训练的模型能够有效泛化到未知的水下场景中。在SAUD+数据集上的实验结果表明,本文提出的方法相比于其他13种现有方法在四个关键性能指标上均取得了最优结果。其中,斯皮尔曼等级相关系数(spearman rank correlation coefficient,SRCC)相较于次优模型提升了8.5%。此外,消融研究证明我们提出的多模态方法对模型性能的提升具有显著作用。本文方法不仅在UIEQA上展现出卓越的性能,且在预测精度和组最大微分竞争的泛化能力上超越了其他对比方法。因此,QaDA-UIEQA具有更强的泛化性和鲁棒性,能在复杂的实际应用场景中保持高效稳定的表现。 展开更多
关键词 水下图像增强 质量评价 域适应 多模态 卷积神经网络
在线阅读 下载PDF
基于自适应空间特征增强的多视图深度估计
3
作者 魏东 刘欢 +3 位作者 张潇瀚 李昌恺 孙天翼 张子优 《系统仿真学报》 CAS CSCD 北大核心 2024年第1期110-119,共10页
为了提高多视图深度估计结果精度,提出一种基于自适应空间特征增强的多视图深度估计算法。设计了由改进后的特征金字塔网络(feature pyramid network,FPN)和自适应空间特征增强(adaptive space feature enhancement,ASFE)组成的多尺度... 为了提高多视图深度估计结果精度,提出一种基于自适应空间特征增强的多视图深度估计算法。设计了由改进后的特征金字塔网络(feature pyramid network,FPN)和自适应空间特征增强(adaptive space feature enhancement,ASFE)组成的多尺度特征提取模块,获取到具有全局上下文信息和位置信息的多尺度特征图像。通过残差学习网络对深度图进行优化,防止多次卷积操作出现重建边缘模糊的问题。通过分类的思想构建focal loss函数增强网络模型的判断能力。由实验结果可知,该算法在DTU(technical university of denmark)数据集上和CasMVSNet(Cascade MVSNet)算法相比,在整体精度误差、运行时间、显存资源占用上分别降低了14.08%、72.15%、4.62%。在Tanks and Temples数据集整体评价指标Mean上该模型优于其他算法,证明提出的基于自适应空间特征增强的多视图深度估计算法的有效性。 展开更多
关键词 多视图深度估计 自适应空间特征增强 残差学习网络 卷积操作 focal loss函数
在线阅读 下载PDF
基于多域信息融合与深度分离卷积的轴承故障诊断网络模型 被引量:4
4
作者 王同 许昕 潘宏侠 《机电工程》 北大核心 2024年第1期22-32,共11页
针对传统卷积神经网络(CNN)对滚动轴承振动信号的故障识别准确率不高这一问题,提出了一种基于多域信息融合结合深度分离卷积(MDIDSC)的轴承故障诊断方法。首先,利用自适应噪声的完全集合经验模态分解(CEEMDAN)算法对轴承振动信号进行了... 针对传统卷积神经网络(CNN)对滚动轴承振动信号的故障识别准确率不高这一问题,提出了一种基于多域信息融合结合深度分离卷积(MDIDSC)的轴承故障诊断方法。首先,利用自适应噪声的完全集合经验模态分解(CEEMDAN)算法对轴承振动信号进行了分解;然后,利用分解出的本征模态函数(IMF)的各个分量构建了多空间状态矩阵,并将该多空间状态矩阵输入该深度分离卷积模型中,进行了卷积训练;同时,在该深度分离卷积模型中添加了残差结构,对数据特征进行了复利用,并对卷积核进行了深度分离,解决了深度模型的网络退化问题;最后,提出了一种空间特征提取方法,对模型参数进行了修剪,采用一种自适应学习率退火方法进行了梯度优化,以避免模型陷入局部最优。研究结果表明:通过对多个轴承故障数据集进行对比分析可知,MDIDSC在轴承故障诊断方面的准确率和稳定性明显优于其他方法,MDIDSC的最高测试准确率为100%,平均测试准确率为99.07%;同时,在测试集中的最大损失和平均损失分别为0.1345和0.0841;该结果表明MDIDSC在轴承故障诊断方面具有一定的优越性。 展开更多
关键词 深度分离卷积 信息融合 参数修剪 残差网络 卷积神经网络 自适应噪声的完全集合经验模态分解 本征模态函数 多域信息融合结合深度分离卷积
在线阅读 下载PDF
视网膜血管提取算法
5
作者 李雪 马瑜 +1 位作者 郭姝琪 王鹏志 《计算机工程与设计》 北大核心 2024年第12期3786-3793,共8页
为提高眼底视网膜血管分割的精确度,提出一种RAIterNet级联视网膜血管分割追踪算法,在预处理与分割网络模型阶段分别进行图像增强与精度提升。使用自适应分数阶次微分对待分割数据集进行增强提高血管图像质量,提升待分割图像血管与背景... 为提高眼底视网膜血管分割的精确度,提出一种RAIterNet级联视网膜血管分割追踪算法,在预处理与分割网络模型阶段分别进行图像增强与精度提升。使用自适应分数阶次微分对待分割数据集进行增强提高血管图像质量,提升待分割图像血管与背景之间的对比度,利用RAIterNet模型对视网膜进行分割,基于连续性追踪方法对微弱结构的末端毛细血管进行追踪,可有效分割视网膜血管中难以分割的微细血管。算法在数据集DRIVE上进行测试,实验结果表明,Acc能够达到0.9650,F1分数为0.9006,获得了0.9807的AU-ROC曲线下面积,主观和客观结果验证了算法的有效性。 展开更多
关键词 视网膜血管提取 卷积神经网络 递归残差卷积 注意力机制 分数阶微分 自适应分数阶增强 血管追踪
在线阅读 下载PDF
基于CNN图像增强的雾天跨域自适应目标检测 被引量:7
6
作者 郭迎 梁睿琳 王润民 《计算机工程与应用》 CSCD 北大核心 2023年第16期187-195,共9页
针对自动驾驶车辆视觉感知系统在雾天条件下捕获图像质量较低,造成目标检测算法精度下降的问题,提出一种基于卷积神经网络(convolutional neural networks,CNN)图像增强的跨域自适应雾天目标检测方法。构建一个端到端目标检测网络,融合... 针对自动驾驶车辆视觉感知系统在雾天条件下捕获图像质量较低,造成目标检测算法精度下降的问题,提出一种基于卷积神经网络(convolutional neural networks,CNN)图像增强的跨域自适应雾天目标检测方法。构建一个端到端目标检测网络,融合数字图像处理技术(digital image processing,DIP)和CNN的自适应图像增强模块,通过小型CNN参数预测器自适应学习增强参数,提升雾天图像质量;进一步地,将多尺度领域自适应(domain adaptive,DA)模块与YOLOv4主干网络相连,通过对抗训练减少由雾天造成的领域差异,提高雾天目标检测精度。在训练阶段,所提方法以端到端的方式学习CNN、DA模块以及YOLOv4,而在目标检测阶段将移除CNN及DA模块,仅使用预训练权重在正常天气和雾天天气自适应地检测图像,不会增加原有网络复杂性,从而保证自动驾驶车辆的实时性要求。在公开数据集Foggy Cityscapes上的实验表明,采用所提方法使雾天图像质量显著增强,目标检测平均精度提升了10.4%,有效提升了雾天条件下自动驾驶车辆对目标的识别能力。 展开更多
关键词 自动驾驶 目标检测 图像增强 卷积神经网络(CNN) 领域自适应 YOLOv4
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部