-
题名基于自适应联合字典学习的脑部多模态图像融合方法
被引量:4
- 1
-
-
作者
王丽芳
董侠
秦品乐
高媛
-
机构
中北大学大数据学院
-
出处
《计算机应用》
CSCD
北大核心
2018年第4期1134-1140,共7页
-
基金
山西省自然科学基金资助项目(2015011045)~~
-
文摘
针对目前全局训练字典对于脑部医学图像的自适应性不强,以及使用稀疏表示系数的L1范数取极大的融合方式易造成图像的灰度不连续效应进而导致图像融合效果欠佳的问题,提出一种基于自适应联合字典学习的脑部多模态图像融合方法。该方法首先使用改进的K奇异值分解(K-SVD)算法自适应地从已配准的源图像中学习得到子字典并组合成自适应联合字典,在自适应联合字典的作用下由系数重用正交匹配追踪(CoefROMP)算法计算得到稀疏表示系数;然后将稀疏表示系数的"多范数"作为源图像块的活跃度测量,并提出"自适应加权平均"与"选择最大"相结合的无偏规则,根据稀疏表示系数的"多范数"的相似度选择融合规则,当"多范数"的相似度大于阈值时,使用"自适应加权平均"的规则,反之则使用"选择最大"的规则融合稀疏表示系数;最后根据融合系数与自适应联合字典重构融合图像。实验结果表明,与其他三种基于多尺度变换的方法和五种基于稀疏表示的方法相比,所提方法的融合图像能够保留更多的图像细节信息,对比度和清晰度较好,病灶边缘清晰,客观参数标准差、空间频率、互信息、基于梯度指标、基于通用图像质量指标和平均结构相似指标在三组实验条件下的均值分别为:71.078 3、21.970 8、3.679 0、0.660 3、0.735 2和0.733 9。该方法可以应用于临床诊断和辅助治疗。
-
关键词
脑部多模态图像融合
K奇异值分解
自适应联合字典
系数重用正交匹配追踪
稀疏表示
多范数
无偏规则
-
Keywords
multi-modal brain image fusion
K-means-based Singular Value Decomposition(K-SVD)
adaptive joint dictionary
coefficient Reuse Orthogonal matching pursuit(coefromp)
sparse representation
multi-norm
unbiased rule
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-
-
题名改进耦合字典学习的脑部CT/MR图像融合方法
被引量:3
- 2
-
-
作者
董侠
王丽芳
秦品乐
高媛
-
机构
中北大学计算机与控制工程学院
-
出处
《计算机应用》
CSCD
北大核心
2017年第6期1722-1727,1746,共7页
-
基金
山西省自然科学基金资助项目(2015011045)~~
-
文摘
针对目前使用单字典表示脑部医学图像难以得到精确的稀疏表示进而导致图像融合效果欠佳,以及字典训练时间过长的问题,提出了一种改进耦合字典学习的脑部计算机断层成像(CT)/磁共振成像(MR)图像融合方法。该方法首先将CT和MR图像对作为训练集,使用改进的K奇异值分解(K-SVD)算法联合训练分别得到耦合的CT字典和MR字典,再将CT和MR字典中的原子作为训练图像的特征,并使用信息熵计算字典原子的特征指标;然后,将特征指标相差较小的原子看作公共特征,其余为各自特征,并分别使用"平均"和"选择最大"的规则融合CT和MR字典的公共特征和各自特征得到融合字典;其次,将配准的源图像编纂成列向量并去除均值,在融合字典的作用下由系数重用正交匹配追踪(Coef ROMP)算法计算得到精确的稀疏表示系数,再分别使用"2范数最大"和"加权平均"的规则融合稀疏表示系数和均值向量;最后通过重建得到融合图像。实验结果表明,相对于3种基于多尺度变换的方法和3种基于稀疏表示的方法,所提方法融合后图像在亮度、清晰度和对比度上都更优,客观参数互信息、基于梯度、基于相位一致和基于通用图像质量指标在三组实验条件下的均值分别为:4.113 3、0.713 1、0.463 6和0.762 5,字典学习在10次实验条件下所消耗的平均时间为5.96 min。该方法可以应用于临床诊断和辅助治疗。
-
关键词
医学图像融合
K奇异值分解
系数重用正交匹配追踪
稀疏表示
字典训练
-
Keywords
medical image fusion
K-means-based Singular Value Decomposition (K-SVD)
coefficient reuseorthogonal matching pursuit (coefromp)
sparse representation
dictionary training
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-