期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于结构功能交叉神经网络的多模态医学图像融合
被引量:
1
1
作者
邸敬
郭文庆
+2 位作者
任莉
杨燕
廉敬
《光学精密工程》
EI
CAS
CSCD
北大核心
2024年第2期252-267,共16页
针对多模态医学图像融合中存在纹理细节模糊和对比度低的问题,提出了一种结构功能交叉神经网络的多模态医学图像融合方法。首先,根据医学图像的结构信息和功能信息设计了结构功能交叉神经网络模型,不仅有效地提取解剖学和功能学医学图...
针对多模态医学图像融合中存在纹理细节模糊和对比度低的问题,提出了一种结构功能交叉神经网络的多模态医学图像融合方法。首先,根据医学图像的结构信息和功能信息设计了结构功能交叉神经网络模型,不仅有效地提取解剖学和功能学医学图像的结构信息和功能信息,而且能够实现这两种信息之间的交互,从而很好地提取医学图像的纹理细节信息。其次,利用交叉网络通道和空间特征变化构造了一种新的注意力机制,通过不断调整结构信息和功能信息权重来融合图像,提高了融合图像的对比度和轮廓信息。最后,设计了一个从融合图像到源图像的分解过程,由于分解图像的质量直接取决于融合结果,因此分解过程可以使融合图像包含更多的细节信息。通过与近年来提出的7种高水平方法相比,本文方法的AG,EN,SF,MI,QAB/F和CC客观评价指标分别平均提高了22.87%,19.64%,23.02%,12.70%,6.79%,30.35%,说明本文方法能够获得纹理细节更清晰、对比度更好的融合结果,在主观视觉和客观指标上都优于其他对比算法。
展开更多
关键词
多模态医学图像融合
结构功能信息交叉网络
注意力机制
分解网络
在线阅读
下载PDF
职称材料
基于高低频特征分解的深度多模态医学图像融合网络
被引量:
6
2
作者
王欣雨
刘慧
+2 位作者
朱积成
盛玉瑞
张彩明
《图学学报》
CSCD
北大核心
2024年第1期65-77,共13页
多模态医学图像融合旨在利用跨模态图像的相关性和信息互补性,以增强医学图像在临床应用中的可读性和适用性。然而,现有手工设计的模型无法有效地提取关键目标特征,从而导致融合图像模糊、纹理细节丢失等问题。为此,提出了一种新的基于...
多模态医学图像融合旨在利用跨模态图像的相关性和信息互补性,以增强医学图像在临床应用中的可读性和适用性。然而,现有手工设计的模型无法有效地提取关键目标特征,从而导致融合图像模糊、纹理细节丢失等问题。为此,提出了一种新的基于高低频特征分解的深度多模态医学图像融合网络,将通道注意力和空间注意力机制引入融合过程,在保持全局结构的基础上保留了局部纹理细节信息,实现了更加细致的融合。首先,通过预训练模型VGG-19提取两种模态图像的高频特征,并通过下采样提取其低频特征,形成高低频中间特征图。其次,在特征融合模块嵌入残差注意力网络,依次从通道和空间维度推断注意力图,并将其用来指导输入特征图的自适应特征优化过程。最后,重构模块形成高质量特征表示并输出融合图像。实验结果表明,该算法在Harvard公开数据集和自建腹部数据集峰值信噪比提升8.29%,结构相似性提升85.07%,相关系数提升65.67%,特征互信息提升46.76%,视觉保真度提升80.89%。
展开更多
关键词
多模态医学图像融合
预训练模型
深度学习
高低频特征提取
残差注意力网络
在线阅读
下载PDF
职称材料
题名
基于结构功能交叉神经网络的多模态医学图像融合
被引量:
1
1
作者
邸敬
郭文庆
任莉
杨燕
廉敬
机构
兰州交通大学电子与信息工程学院
出处
《光学精密工程》
EI
CAS
CSCD
北大核心
2024年第2期252-267,共16页
基金
甘肃省科技计划资助项目(No.22JR5RA360)
国家自然科学基金资助项目(No.62061023)
+1 种基金
甘肃省杰出青年基金资助项目(No.21JR7RA345)
甘肃省教育科技创新产业支撑项目(No.2021CYZC-04)。
文摘
针对多模态医学图像融合中存在纹理细节模糊和对比度低的问题,提出了一种结构功能交叉神经网络的多模态医学图像融合方法。首先,根据医学图像的结构信息和功能信息设计了结构功能交叉神经网络模型,不仅有效地提取解剖学和功能学医学图像的结构信息和功能信息,而且能够实现这两种信息之间的交互,从而很好地提取医学图像的纹理细节信息。其次,利用交叉网络通道和空间特征变化构造了一种新的注意力机制,通过不断调整结构信息和功能信息权重来融合图像,提高了融合图像的对比度和轮廓信息。最后,设计了一个从融合图像到源图像的分解过程,由于分解图像的质量直接取决于融合结果,因此分解过程可以使融合图像包含更多的细节信息。通过与近年来提出的7种高水平方法相比,本文方法的AG,EN,SF,MI,QAB/F和CC客观评价指标分别平均提高了22.87%,19.64%,23.02%,12.70%,6.79%,30.35%,说明本文方法能够获得纹理细节更清晰、对比度更好的融合结果,在主观视觉和客观指标上都优于其他对比算法。
关键词
多模态医学图像融合
结构功能信息交叉网络
注意力机制
分解网络
Keywords
multimodal medical image fusion
structural and functional information cross-interacting network
attention mechanism
decomposition network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于高低频特征分解的深度多模态医学图像融合网络
被引量:
6
2
作者
王欣雨
刘慧
朱积成
盛玉瑞
张彩明
机构
山东财经大学计算机科学与技术学院
山东省数字媒体技术重点实验室
山东第一医科大学第一附属医院
山东大学软件学院
出处
《图学学报》
CSCD
北大核心
2024年第1期65-77,共13页
基金
国家自然科学基金项目(62072274,U22A2033)
中央引导地方科技发展项目(YDZX2022009)
山东省泰山学者特聘专家计划项目(tstp20221137)。
文摘
多模态医学图像融合旨在利用跨模态图像的相关性和信息互补性,以增强医学图像在临床应用中的可读性和适用性。然而,现有手工设计的模型无法有效地提取关键目标特征,从而导致融合图像模糊、纹理细节丢失等问题。为此,提出了一种新的基于高低频特征分解的深度多模态医学图像融合网络,将通道注意力和空间注意力机制引入融合过程,在保持全局结构的基础上保留了局部纹理细节信息,实现了更加细致的融合。首先,通过预训练模型VGG-19提取两种模态图像的高频特征,并通过下采样提取其低频特征,形成高低频中间特征图。其次,在特征融合模块嵌入残差注意力网络,依次从通道和空间维度推断注意力图,并将其用来指导输入特征图的自适应特征优化过程。最后,重构模块形成高质量特征表示并输出融合图像。实验结果表明,该算法在Harvard公开数据集和自建腹部数据集峰值信噪比提升8.29%,结构相似性提升85.07%,相关系数提升65.67%,特征互信息提升46.76%,视觉保真度提升80.89%。
关键词
多模态医学图像融合
预训练模型
深度学习
高低频特征提取
残差注意力网络
Keywords
multi-modal medical image fusion
pre-trained model
deep learning
high-low frequency feature extraction
residual attention network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于结构功能交叉神经网络的多模态医学图像融合
邸敬
郭文庆
任莉
杨燕
廉敬
《光学精密工程》
EI
CAS
CSCD
北大核心
2024
1
在线阅读
下载PDF
职称材料
2
基于高低频特征分解的深度多模态医学图像融合网络
王欣雨
刘慧
朱积成
盛玉瑞
张彩明
《图学学报》
CSCD
北大核心
2024
6
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部