-
题名基于损失自注意力机制的立体匹配算法研究
被引量:4
- 1
-
-
作者
郭乾宇
武一
刘华宾
赵普
-
机构
河北工业大学电子信息工程学院
河北工业大学电子与通信工程国家级实验教学示范中心
-
出处
《计算机应用研究》
CSCD
北大核心
2022年第7期2236-2240,共5页
-
基金
国家自然科学基金资助项目(E2020202042)
河北省自然科学基金资助项目(51977059)。
-
文摘
针对现有的立体匹配算法在阴影、物体边缘和光照反射等区域匹配困难且存在大量错误结果的问题,设计了一种可拆卸的损失自注意力网络(loss self-attention net,LSAnet)查找图像中的匹配困难区域。LSAnet的网络各层相互稠密连接,应用了空洞卷积来扩大感受野,并以立体匹配算法生成的损失分布为标签,能够动态地进行有监督训练,最终生成匹配困难区域掩膜辅助立体匹配网络进行更好的优化;同时,改进了立体匹配网络中经典的特征匹配代价卷结构,降低了后续3D卷积的计算负荷,提高了匹配效率。实验结果表明,该算法相比于基准算法精度更高,并且可以提高算法对于匹配困难区域的鲁棒性。
-
关键词
机器视觉
立体匹配
注意力机制
双目视觉
特征匹配代价计算
-
Keywords
machine vision
stereo matching
attention mechanism
binocular vision
feature matching cost calculation
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-
-
题名无人机大场景在线密集点云和DSM生成算法
- 2
-
-
作者
杨佳琪
范大昭
杨佳宾
杨幸彬
纪松
-
机构
信息工程大学地理空间信息学院
北京字跳网络技术有限公司
-
出处
《测绘通报》
CSCD
北大核心
2023年第10期47-53,共7页
-
基金
高分辨率对地观测系统重大专项(42-Y30B04-9001-19/21)
国家自然科学基金(41971427)。
-
文摘
针对无人机影像获取密集点云和DSM过程中耗时过多、点云质量与处理速度难以平衡的问题,本文提出了一种大场景无人机在线密集点云和DSM生成方法。首先,采用SLAM与RTK信息松耦合的方法在线估计影像位姿;然后,利用多视影像位姿信息在深度空间进行离散采样,通过将当前像素点离散采样深度投影至候选帧影像上获取匹配代价,在代价计算过程中引入中心对称的census代价函数,并考虑多视图遮挡关系计算联合代价值,节省时间的同时提高了匹配代价准确度;最后,提出了一种增量式的代价积聚策略,将前一帧获取的深度投影至当前帧约束代价积聚范围,从而缩短在线计算耗时,结合抛物线拟合算法得到完整度和精度更高的深度图,将深度图去噪后投影至物方空间得到最终的密集点云和DSM。利用3组典型地区的无人机影像对本文方法进行测试,结果表明,本文方法能够满足在线计算的要求,获取的点云和DSM精度与完整度较好。
-
关键词
无人机影像
匹配代价计算
增量式代价积聚
密集点云
在线计算
-
Keywords
UAV image
matching cost calculation
incremental cost accumulation
dense point cloud
online computation
-
分类号
P237
[天文地球—摄影测量与遥感]
-