期刊文献+
共找到10篇文章
< 1 >
每页显示 20 50 100
低秩Toeplitz张量的高精度随机填充算法
1
作者 温瑞萍 李文韦 《数学理论与应用》 2023年第3期95-110,共16页
本文基于高精度填充算法,考虑低秩Toeplitz张量填充问题的求解,通过在每步迭代中将张量随机地按第n模展开并且对它的奇异值分解(SingularValueDecomposition,简记作SVD)进行修正,给出一种具有随机思想的高精度填充算法,并讨论其收敛性.... 本文基于高精度填充算法,考虑低秩Toeplitz张量填充问题的求解,通过在每步迭代中将张量随机地按第n模展开并且对它的奇异值分解(SingularValueDecomposition,简记作SVD)进行修正,给出一种具有随机思想的高精度填充算法,并讨论其收敛性.通过对Toeplitz张量及Toeplitz均值张量的数值实验,结果表明新算法比低秩Toeplitz张量的高精度填充算法在计算代价上有明显改进. 展开更多
关键词 填充 低秩toeplitz张量 随机算法
在线阅读 下载PDF
基于非凸低秩张量分解和群稀疏总变分的高光谱混合噪声图像恢复
2
作者 徐光宪 王泽民 马飞 《红外技术》 CSCD 北大核心 2024年第9期1025-1034,共10页
高光谱图像(Hyperspectral Image,HSI)在采集的过程中会被大量混合噪声污染,会影响遥感图像后续应用的性能,因此从混合噪声中恢复干净的HSI成为了重要的预处理过程。在本文中,提出了一种基于非凸低秩张量分解和群稀疏总变分正则化的高... 高光谱图像(Hyperspectral Image,HSI)在采集的过程中会被大量混合噪声污染,会影响遥感图像后续应用的性能,因此从混合噪声中恢复干净的HSI成为了重要的预处理过程。在本文中,提出了一种基于非凸低秩张量分解和群稀疏总变分正则化的高光谱混合噪声图像恢复模型;一方面,采用对数张量核范数来逼近HSI的低秩特性,可以利用高光谱数据固有的张量结构,同时减少对较大奇异值的收缩以保留图像更多细节特征;另一方面,采用群稀疏总变分正则化来增强HSI的空间稀疏性和相邻光谱间的相关性。并采用ADMM(Alternating Direction Multiplier Method)算法求解,实验证明该算法易于收敛。在模拟和真实的高光谱图像实验中,与其他方法相比,该方法在去除HSI混合噪声方面具有更好的性能。 展开更多
关键词 高光谱图像 混合噪声 非凸分解 群稀疏总变分 图像恢复
在线阅读 下载PDF
基于非凸优化模型张量补全的RIP条件
3
作者 王川龙 钟林江 《应用数学》 北大核心 2025年第1期40-46,共7页
限制等距条件在稀疏优化中具有重要的意义,它是稀疏性的保证.在压缩感知和矩阵补全中,基于l_(1),L_(*)以及l_(1)−l_(2)和L_(*)−LF优化模型的限制等距条件已经获得较丰富的成果.本文将推广到张量上,基于Tucker秩和L_(*)−LF优化模型,研究... 限制等距条件在稀疏优化中具有重要的意义,它是稀疏性的保证.在压缩感知和矩阵补全中,基于l_(1),L_(*)以及l_(1)−l_(2)和L_(*)−LF优化模型的限制等距条件已经获得较丰富的成果.本文将推广到张量上,基于Tucker秩和L_(*)−LF优化模型,研究低秩张量X恢复的限制等距性质(RIP),给出限制等距性常数δ_(2r_(n))的一个界. 展开更多
关键词 ∥X∥_(*)-∥X∥_(F)最小化 限制等距性 恢复
在线阅读 下载PDF
基于低秩张量分析的高光谱图像降维与分类 被引量:4
4
作者 陈昭 王斌 张立明 《红外与毫米波学报》 SCIE EI CAS CSCD 北大核心 2013年第6期569-575,共7页
提出一种用于高光谱图像降维和分类的分块低秩张量分析方法.该算法以提高分类精度为目标,对图像张量分块进行降维和分类.将高光谱图像分成若干子张量,不仅保存了高光谱图像的三维数据结构,利用了空间与光谱维度的关联性,还充分挖掘了图... 提出一种用于高光谱图像降维和分类的分块低秩张量分析方法.该算法以提高分类精度为目标,对图像张量分块进行降维和分类.将高光谱图像分成若干子张量,不仅保存了高光谱图像的三维数据结构,利用了空间与光谱维度的关联性,还充分挖掘了图像局部的空间相关性.与现有的张量分析法相比,这种分块处理方法克服了图像的整体空间相关性较弱以及子空间维度的设定对降维效果的负面影响.只要子空间维度小于子张量维度,所提议的分块算法就能取得较好的降维效果,其分类精度远远高于不分块的算法,从而无需借助原本就不可靠的子空间维度估计法.仿真和真实数据的实验结果表明,所提议分块低秩张量分析算法明显地表现出较好的降维效果,具有较高的分类精度. 展开更多
关键词 高光谱图像 分析 空间相关性 子空间维度 降维 分类
在线阅读 下载PDF
低秩张量补全算法综述 被引量:2
5
作者 刘慧梅 史加荣 《陕西理工学院学报(自然科学版)》 2016年第2期80-86,共7页
随着现代信息技术的快速发展,待分析的数据大都具有很复杂的结构。在获取高维多线性数据的过程中,部分元素可能丢失,低秩张量补全就是根据数据集的低秩性质来恢复出所有丢失元素。低秩张量补全是压缩感知理论的高阶推广,在数学上可以描... 随着现代信息技术的快速发展,待分析的数据大都具有很复杂的结构。在获取高维多线性数据的过程中,部分元素可能丢失,低秩张量补全就是根据数据集的低秩性质来恢复出所有丢失元素。低秩张量补全是压缩感知理论的高阶推广,在数学上可以描述为核范数最小化问题。对求解低秩张量补全的核范数最小化模型的现有算法进行了综述。介绍了张量的基础知识和低秩张量补全模型,给出了低秩张量补全的几种主流算法,如:简单低秩张量补全、高精度低秩张量补全以及核心张量核范数的张量补全等,指出了现有低秩张量补全算法中值得研究与改进的方向。 展开更多
关键词 补全 核范数最小化 核心核范数 交替方向乘子法
在线阅读 下载PDF
蒙特卡罗非局部均值与低秩张量的锚定融合
6
作者 郭鹏飞 《信息技术》 2018年第8期154-158,共5页
非局部均值和迭代滤波技术因其优越的性能吸引了大量的研究工作。文中把两种方法锚定融合于一个基于残差低秩张量分解的框架中实现图像去噪。蒙特卡罗随机抽样图像块以解决非局部均值的高度计算复杂性,由于算法的不完美性,造成图像退化... 非局部均值和迭代滤波技术因其优越的性能吸引了大量的研究工作。文中把两种方法锚定融合于一个基于残差低秩张量分解的框架中实现图像去噪。蒙特卡罗随机抽样图像块以解决非局部均值的高度计算复杂性,由于算法的不完美性,造成图像退化和细微结构丢失。图像块在嵌入空间中呈现出高度的结构化,而基于块结构的张量可以描绘相似块的内部几何结构并且保留图像细节,文中利用张量结构优势结合残差图像信息来弥补丢失的纹理。试验结果验证了模型的有效性,其去噪图像的客观评价标准及主观视觉效果均优于非局部均值、K-SVD和BM3D算法。 展开更多
关键词 非局部均值 蒙特卡罗 残差图像
在线阅读 下载PDF
基于随机化张量算法的红外弱小目标检测 被引量:1
7
作者 蹇渊 黄自力 王询 《激光技术》 CSCD 北大核心 2024年第1期127-134,共8页
为了降低基于张量低秩稀疏分解的红外弱小目标检测算法的计算复杂度,提升红外弱小目标的检测性能,将图像时空张量与随机化算法进行结合,提出了一种基于随机化张量算法的红外弱小目标检测算法。首先将红外图像序列构造成时空张量作为张... 为了降低基于张量低秩稀疏分解的红外弱小目标检测算法的计算复杂度,提升红外弱小目标的检测性能,将图像时空张量与随机化算法进行结合,提出了一种基于随机化张量算法的红外弱小目标检测算法。首先将红外图像序列构造成时空张量作为张量优化模型的输入,然后使用随机化张量算法求解张量优化模型,最后将计算得到的稀疏张量还原为图像,获得目标图像。结果表明,相比于传统基于低秩稀疏分解的算法,所提出的算法不仅计算速度快,而且具有较好的弱小目标检测性能。该研究为提升基于张量低秩稀疏分解的红外弱小目标检测算法的运算速度提供了参考。 展开更多
关键词 图像处理 稀疏 红外弱小目标检测 随机化算法 时空
在线阅读 下载PDF
基于稀疏增强重加权与掩码块张量的红外弱小目标检测
8
作者 孙尚琦 张宝华 +3 位作者 李永翔 吕晓琪 谷宇 李建军 《红外技术》 CSCD 北大核心 2024年第3期305-313,共9页
高度异构的复杂背景破坏了场景的低秩性,现有算法难以利用低秩稀疏恢复方法从背景中分离出小目标。为了解决上述问题,本文将小目标检测问题转化为张量模型的凸优化函数求解问题,提出基于稀疏增强重加权与掩码块张量的检测模型。首先,将... 高度异构的复杂背景破坏了场景的低秩性,现有算法难以利用低秩稀疏恢复方法从背景中分离出小目标。为了解决上述问题,本文将小目标检测问题转化为张量模型的凸优化函数求解问题,提出基于稀疏增强重加权与掩码块张量的检测模型。首先,将掩码块图像以堆叠方式扩展至张量空间,并构建掩码块张量模型以筛选候选目标。在此基础上,利用结构张量构建稀疏增强重加权模型以抑制背景杂波,克服凸优化函数求解过程中设定加权参数的缺陷。实验表明本文检测算法在背景抑制因子及信杂比增益两方面都优于新近代表性算法,证明该算法的有效性。 展开更多
关键词 小目标检测 稀疏恢复 掩码块 稀疏增强重加权
在线阅读 下载PDF
概率张量分解综述 被引量:2
9
作者 史加荣 张安银 《陕西理工大学学报(自然科学版)》 2018年第4期70-79,共10页
在获取高维多线性数据的过程中,元素通常丢失,而概率张量分解能够在不破坏数据结构的前提下有效地补全丢失值。综述了近几年出现的主要概率张量分解模型。首先,讨论了经典的张量分解模型;其次,将概率张量分解模型分为平行因子分解和塔... 在获取高维多线性数据的过程中,元素通常丢失,而概率张量分解能够在不破坏数据结构的前提下有效地补全丢失值。综述了近几年出现的主要概率张量分解模型。首先,讨论了经典的张量分解模型;其次,将概率张量分解模型分为平行因子分解和塔克分解两大类,并给出了求解方法及优缺点。在模型求解过程中,分析了两种最常用的方法:变分贝叶斯推断和吉布斯采样。最后,指出了有待进一步研究的问题。 展开更多
关键词 分解 概率分解 变分贝叶斯推断 吉布斯采样
在线阅读 下载PDF
Double Transformed Tubal Nuclear Norm Minimization for Tensor Completion
10
作者 TIAN Jialue ZHU Yulian LIU Jiahui 《Transactions of Nanjing University of Aeronautics and Astronautics》 EI CSCD 2022年第S01期166-174,共9页
Non-convex methods play a critical role in low-rank tensor completion for their approximation to tensor rank is tighter than that of convex methods.But they usually cost much more time for calculating singular values ... Non-convex methods play a critical role in low-rank tensor completion for their approximation to tensor rank is tighter than that of convex methods.But they usually cost much more time for calculating singular values of large tensors.In this paper,we propose a double transformed tubal nuclear norm(DTTNN)to replace the rank norm penalty in low rank tensor completion(LRTC)tasks.DTTNN turns the original non-convex penalty of a large tensor into two convex penalties of much smaller tensors,and it is shown to be an equivalent transformation.Therefore,DTTNN could take advantage of non-convex envelopes while saving time.Experimental results on color image and video inpainting tasks verify the effectiveness of DTTNN compared with state-of-the-art methods. 展开更多
关键词 double transformed tubal nuclear norm low tubal-rank non-convex optimization tensor factorization tensor completion
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部