针对潜在低秩表示学习的投影矩阵不能解释提取特征重要程度和保持数据的局部几何结构的问题,提出了一种基于双邻域和特征选择的潜在低秩稀疏投影算法(LLRSP:Latent Low-Rank And Sparse Projection)。该算法首先融合低秩约束和正交重构...针对潜在低秩表示学习的投影矩阵不能解释提取特征重要程度和保持数据的局部几何结构的问题,提出了一种基于双邻域和特征选择的潜在低秩稀疏投影算法(LLRSP:Latent Low-Rank And Sparse Projection)。该算法首先融合低秩约束和正交重构保持数据的主要能量,然后对投影矩阵施加行稀疏约束进行特征选择,使特征更加紧凑和具有可解释性。此外引入l_(2,1)范数对误差分量进行正则化使模型对噪声更具健壮性。最后在低维数据和低秩表示系数矩阵上施加邻域保持正则化以保留数据的局部几何结构。公开数据集上的大量实验结果表明,所提方法与其他先进算法相比具有更好的性能。展开更多
针对目前红外与可见光图像融合算法中由于源图像信息特征不同而产生的全局结构和细节信息无法保留等问题,提出一种基于低秩稀疏分解(Low-rank Sparse Decomposition,LRSD)的红外与可见光图像融合方法。该方法通过最优方向选择(Method of...针对目前红外与可见光图像融合算法中由于源图像信息特征不同而产生的全局结构和细节信息无法保留等问题,提出一种基于低秩稀疏分解(Low-rank Sparse Decomposition,LRSD)的红外与可见光图像融合方法。该方法通过最优方向选择(Method of Optimal Directions,MOD)、K奇异值分解(K-Singular Value Decomposition,K-SVD)和背景字典3种字典学习方法构造字典,并采用低秩表示(Low-rank Represention,LRR)对源图像分解得到低秩部分和稀疏细节部分,其中低秩部分保留了源图像的全局结构,稀疏部分突出了源图像的局部结构和细节信息。在融合过程中,对低秩部分和稀疏部分分别采用加权平均与l_(2)-l_(1)范数约束策略进行融合,保留了全局对比度和像素强度。实验结果表明,与经典融合算法相比,提出的方法在图像视觉效果和定量评价指标方面有显著提升。采用MOD和K-SVD方法进行字典训练,得到的融合图像在定量评价指标互信息(Mutual Information,MI)、结构相似度(Structural Similarity Index,SSIM)、视觉信息保真度(Visual Information Fidelity,VIF)、标准差(Standard Deviation,SD)和峰值信噪比(Peak Signal to Noise Ratio,PSNR)上分别提高了约6%、27%、9.6%、2.4%和3.4%;采用背景字典方法进行字典训练,得到的融合图像在定量评价指标MI、SSIM、SD、均方误差(Mean Squared Error,MSE)、PSNR上分别提高了约23%、29%、1.2%、33%和4.5%。展开更多
文摘针对潜在低秩表示学习的投影矩阵不能解释提取特征重要程度和保持数据的局部几何结构的问题,提出了一种基于双邻域和特征选择的潜在低秩稀疏投影算法(LLRSP:Latent Low-Rank And Sparse Projection)。该算法首先融合低秩约束和正交重构保持数据的主要能量,然后对投影矩阵施加行稀疏约束进行特征选择,使特征更加紧凑和具有可解释性。此外引入l_(2,1)范数对误差分量进行正则化使模型对噪声更具健壮性。最后在低维数据和低秩表示系数矩阵上施加邻域保持正则化以保留数据的局部几何结构。公开数据集上的大量实验结果表明,所提方法与其他先进算法相比具有更好的性能。
文摘针对目前红外与可见光图像融合算法中由于源图像信息特征不同而产生的全局结构和细节信息无法保留等问题,提出一种基于低秩稀疏分解(Low-rank Sparse Decomposition,LRSD)的红外与可见光图像融合方法。该方法通过最优方向选择(Method of Optimal Directions,MOD)、K奇异值分解(K-Singular Value Decomposition,K-SVD)和背景字典3种字典学习方法构造字典,并采用低秩表示(Low-rank Represention,LRR)对源图像分解得到低秩部分和稀疏细节部分,其中低秩部分保留了源图像的全局结构,稀疏部分突出了源图像的局部结构和细节信息。在融合过程中,对低秩部分和稀疏部分分别采用加权平均与l_(2)-l_(1)范数约束策略进行融合,保留了全局对比度和像素强度。实验结果表明,与经典融合算法相比,提出的方法在图像视觉效果和定量评价指标方面有显著提升。采用MOD和K-SVD方法进行字典训练,得到的融合图像在定量评价指标互信息(Mutual Information,MI)、结构相似度(Structural Similarity Index,SSIM)、视觉信息保真度(Visual Information Fidelity,VIF)、标准差(Standard Deviation,SD)和峰值信噪比(Peak Signal to Noise Ratio,PSNR)上分别提高了约6%、27%、9.6%、2.4%和3.4%;采用背景字典方法进行字典训练,得到的融合图像在定量评价指标MI、SSIM、SD、均方误差(Mean Squared Error,MSE)、PSNR上分别提高了约23%、29%、1.2%、33%和4.5%。