期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
自适应光学系统SPGD控制算法的FPGA硬件实现 被引量:10
1
作者 张金宝 陈波 +1 位作者 王彩霞 李新阳 《光电工程》 CAS CSCD 北大核心 2009年第9期46-51,共6页
针对随机并行梯度下降(SPGD)算法实时性强,同时具有一定的灵活性的要求,本文提出了一种基于FPGA的SPGD算法硬件实现方法。该方法首先划分了各功能模块,然后对关键模块进行了实时化处理,并使用"流水线"和RAM技术设计了可升级... 针对随机并行梯度下降(SPGD)算法实时性强,同时具有一定的灵活性的要求,本文提出了一种基于FPGA的SPGD算法硬件实现方法。该方法首先划分了各功能模块,然后对关键模块进行了实时化处理,并使用"流水线"和RAM技术设计了可升级和扩展的变形镜控制模块。最后将该算法实现并应用到61单元自适应光学激光实验中,结果表明本文的设计可使用不同的性能指标实现变形镜的SPGD算法闭环控制,并能同时完成倾斜镜的控制,达到了实时性和灵活性的要求。 展开更多
关键词 自适应光学 SPGD算法 FPGA 变形镜
在线阅读 下载PDF
基于Zernike模式的随机并行梯度下降算法的收敛速率 被引量:6
2
作者 王卫兵 赵帅 +1 位作者 郭劲 王挺峰 《中国光学》 EI CAS 2012年第4期407-415,共9页
为了加快控制变形镜进行波前整形的随机并行梯度下降(SPGD)算法的收敛速率,提高实时波前整形能力,本文利用由12阶Zernike多项式构成的畸变波前和32单元变形镜建立了仿真模型。基于Zernike多项式的单位正交性,得到了两个常数矩阵,当斯特... 为了加快控制变形镜进行波前整形的随机并行梯度下降(SPGD)算法的收敛速率,提高实时波前整形能力,本文利用由12阶Zernike多项式构成的畸变波前和32单元变形镜建立了仿真模型。基于Zernike多项式的单位正交性,得到了两个常数矩阵,当斯特列尔比(SR)达到0.8时,需要算法迭代660次,简化了算法的运算过程,加快了算法运行时间。通过Matlab7.8.0对6种SPGD算法进行仿真对比,结果显示:当SR要求不高时,可使用间接固定双边SPGD算法来提高收敛速度;当SR要求较高时,则应当使用间接自动双边SPGD算法。提出的算法为实际的激光整形提供了理论指导。 展开更多
关键词 波前整形系统 随机并行梯度下降算法 仿真 ZERNIKE多项式 变形镜
在线阅读 下载PDF
一种减小方差求解非光滑问题的随机优化算法 被引量:7
3
作者 朱小辉 陶卿 +1 位作者 邵言剑 储德军 《软件学报》 EI CSCD 北大核心 2015年第11期2752-2761,共10页
随机优化算法是求解大规模机器学习问题的高效方法之一.随机学习算法使用随机抽取的单个样本梯度代替全梯度,有效节省了计算量,但却会导致较大的方差.近期的研究结果表明:在光滑损失优化问题中使用减小方差策略,能够有效提高随机梯度算... 随机优化算法是求解大规模机器学习问题的高效方法之一.随机学习算法使用随机抽取的单个样本梯度代替全梯度,有效节省了计算量,但却会导致较大的方差.近期的研究结果表明:在光滑损失优化问题中使用减小方差策略,能够有效提高随机梯度算法的收敛速率.考虑求解非光滑损失问题随机优化算法COMID(composite objective mirror descent)的方差减小问题.首先证明了COMID具有方差形式的(O1T1/2+σ2/T1/2)收敛速率,其中,T是迭代步数,σ2是方差.该收敛速率保证了减小方差的有效性,进而在COMID中引入减小方差的策略,得到一种随机优化算法α-MDVR(mirror descent with variance reduction).不同于Prox-SVRG(proximal stochastic variance reduced gradient),α-MDVR收敛速率不依赖于样本数目,每次迭代只使用部分样本来修正梯度.对比实验验证了α-MDVR既减小了方差,又节省了计算时间. 展开更多
关键词 机器学习 随机算法 非光滑 方差 COMPOSITE objective mirror descent(COMID)
在线阅读 下载PDF
基于单压电变形镜的可控环形焦斑整形 被引量:3
4
作者 马剑强 李艳 +1 位作者 喻奇志 杨宗峰 《光学精密工程》 EI CAS CSCD 北大核心 2018年第6期1322-1329,共8页
为了实现可控环形焦斑的整形,提出了一套基于单压电变形镜的整形方法。首先结合波前衍射理论和随机并行梯度下降算法模拟迭代出环形焦斑整形所需的调制相位,进而利用波前传感器探测光束的波前信息,控制变形镜重构目标光斑对应的调制相位... 为了实现可控环形焦斑的整形,提出了一套基于单压电变形镜的整形方法。首先结合波前衍射理论和随机并行梯度下降算法模拟迭代出环形焦斑整形所需的调制相位,进而利用波前传感器探测光束的波前信息,控制变形镜重构目标光斑对应的调制相位,实现聚焦光斑的整形。搭建了一套基于62单元单压电变形镜的光斑整形实验平台,采用焦平面上的CCD记录远场聚焦光斑。实验结果表明,该方法实现了对不同直径(0.32,0.4,0.6 mm)和宽度(0.05,0.08,0.1mm)环形焦斑的整形,可有效应用于激光束整形。 展开更多
关键词 自适应光学 光束整形 单压电变形镜 泽尼克多项式 随机并行梯度下降算法
在线阅读 下载PDF
基于并行梯度下降算法模拟高功率固体激光装置的相干合成(英文) 被引量:2
5
作者 杨雨川 罗晖 +4 位作者 李富全 王逍 黄小军 冯斌 景峰 《强激光与粒子束》 EI CAS CSCD 北大核心 2011年第4期875-880,共6页
多路光的相干合成是高功率固体激光装置的关键技术之一。基于合成模型,对4组tilt/tip-piston镜采用并行梯度算法,通过模拟计算实现了光束间的位相锁定和相干合成。结果表明有限次算法迭代次数内,相干合成时远场焦斑10μm半径范围内的强... 多路光的相干合成是高功率固体激光装置的关键技术之一。基于合成模型,对4组tilt/tip-piston镜采用并行梯度算法,通过模拟计算实现了光束间的位相锁定和相干合成。结果表明有限次算法迭代次数内,相干合成时远场焦斑10μm半径范围内的强度比约为非相干合成时的4倍。基于高频响应驱动器和对应的高速控制算法将有可能实现高功率固体激光装置多路输出光束间的相干合成。 展开更多
关键词 相干合成 光学追迹 衍射计算 高功率固体激光 并行梯度下降算法 tilt/tip-piston镜
在线阅读 下载PDF
随机并行梯度下降算法性能与变形镜排布规律的关系研究 被引量:2
6
作者 陈惠颖 王卫兵 +1 位作者 王挺峰 郭劲 《中国光学》 EI CAS CSCD 2016年第4期432-438,共7页
对随机并行梯度下降算法(SPGD)性能与不同变形镜排布规律的关系进行了研究。以采用Roddier方法生成的由52项Zernike像差构成的畸变波前为整形对象,对SPGD算法的收敛速率和整形效果与变形镜排布规律(单元数分别为19、21、32、37、45、60... 对随机并行梯度下降算法(SPGD)性能与不同变形镜排布规律的关系进行了研究。以采用Roddier方法生成的由52项Zernike像差构成的畸变波前为整形对象,对SPGD算法的收敛速率和整形效果与变形镜排布规律(单元数分别为19、21、32、37、45、60、61、77、91)之间的关系进行了仿真研究。结果表明:从整体分析,随着变形镜单元数逐渐增多,SPGD算法的收敛速率和整形效果均逐渐变差;从局部分析,由于变形镜元胞类型变化和边缘占空比的影响,在渐变规律中产生了局部差异。 展开更多
关键词 波前整形 随机并行梯度下降算法 变形镜
在线阅读 下载PDF
基于Bandit反馈的自适应量化分布式在线镜像下降算法 被引量:1
7
作者 谢俊如 高文华 谢奕彬 《控制理论与应用》 EI CAS CSCD 北大核心 2023年第10期1774-1782,共9页
多智能体系统的在线分布式优化常用于处理动态环境下的优化问题,节点间需要实时传输数据流.在很多情况下,各节点无法获取个体目标函数的全部信息(包括梯度信息),并且节点间信息传输存在一定的通信约束.考虑到非欧投影意义下的镜像下降... 多智能体系统的在线分布式优化常用于处理动态环境下的优化问题,节点间需要实时传输数据流.在很多情况下,各节点无法获取个体目标函数的全部信息(包括梯度信息),并且节点间信息传输存在一定的通信约束.考虑到非欧投影意义下的镜像下降算法在处理高维数据和大规模在线学习上的优势,本文使用个体目标函数在两点处的函数值信息对缺失的梯度信息进行估计,并且根据镜像下降算法的性质设计自适应量化器,提出基于Bandit反馈的自适应量化分布式在线镜像下降算法.然后分析了量化误差界和Regret界的关系,适当选择参数可得所提算法的Regret界为O(√T).最后,通过数值仿真验证了算法和理论结果的有效性. 展开更多
关键词 镜像下降算法 多智能体系统 优化 量化 Bandit反馈
在线阅读 下载PDF
基于Bandit反馈的在线分布式镜面下降算法
8
作者 朱小梅 李觉友 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2022年第1期99-107,共9页
针对在线分布式优化中一类损失函数梯度信息获取困难的问题,提出一种基于Bandit反馈的在线分布式镜面下降(ODMD-B)算法.首先,推广在线分布式镜面梯度下降(ODMD)算法到免梯度的情形,提出了一种新的仅利用函数值信息来对梯度进行估计的方... 针对在线分布式优化中一类损失函数梯度信息获取困难的问题,提出一种基于Bandit反馈的在线分布式镜面下降(ODMD-B)算法.首先,推广在线分布式镜面梯度下降(ODMD)算法到免梯度的情形,提出了一种新的仅利用函数值信息来对梯度进行估计的方法即Bandit反馈,其关键在于利用损失函数值信息逼近梯度信息,能有效克服梯度信息难以获取或计算复杂的困难.然后,给出算法的收敛性分析.结果表明算法的收敛速度为O(T),其中T是迭代次数.最后,使用投资组合选择模型进行了数值仿真实验.实验结果表明,ODMD-B算法的收敛速度与已有的ODMD算法的收敛速度接近.对比ODMD算法,本文所提出算法的优点在于仅仅使用了计算花费较小的函数值信息,使其更适用于梯度信息难以获取的优化问题. 展开更多
关键词 在线学习 分布式优化 镜面下降算法 Bandit反馈 Regret界
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部