-
题名面向跨视角地理定位的感知特征融合网络
被引量:2
- 1
-
-
作者
王嘉怡
陈子洋
袁小晨
赵艮平
-
机构
广东工业大学计算机学院
澳门理工大学应用科学学院
-
出处
《计算机工程与应用》
CSCD
北大核心
2024年第3期255-262,共8页
-
基金
国家自然科学基金(U20A6003)
国家自然科学基金广东联合基金(U1801263,U1701262,U2001201)
+2 种基金
广州市基础与应用研究项目(202201010273)
广东省信息物理融合系统重点实验室(2020B1212060069)
佛山市重点领域科技攻关(2020001006832)。
-
文摘
跨视角地理定位是指同一地理目标可通过检索多个平台视角(无人机、卫星和街景)进行位置定位。这类定位任务主要挑战是不同视角点间的剧烈变化,降低了模型的检索性能。目前跨视角地理定位的网络存在以下的问题。由于地理目标具有尺度和角度的多样性,当前网络在感知目标信息时容易受到局部区域的干扰。属于同一类别中的不同视角,它们的角度差异很大。因此,提出了面向跨视角地理定位的感知特征融合网络(PFFNet)来学习位置感知特征并在每个视角之间建立语义关联。在PFFNet中的每个视角,搭建分流上下文嵌入网络(SCENet)作为骨干网络分别提取每个视角的上下文关联特征信息并构建目标位置的编码空间。在跨视角地理定位数据集University-1652上,将提出的方法与最先进的方法进行比较。实验结果表明,所提出感知特征融合网络在大规模数据集中取得了较高的自适应性能。
-
关键词
跨视角地理定位
位置感知
嵌入网络
细粒度空间嵌入
上下文关联特征空间
-
Keywords
cross-view geo-localization
location-aware
embedding network
fine-grained spatial embedding
contextual feature space
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-
-
题名基于多任务联合学习的跨视角地理定位方法
被引量:5
- 2
-
-
作者
王先兰
周金坤
穆楠
王晨
-
机构
武汉邮电科学研究院
四川师范大学计算机科学学院
南京烽火天地通信科技有限公司
-
出处
《计算机应用》
CSCD
北大核心
2023年第5期1625-1635,共11页
-
基金
国家自然科学基金资助项目(62006165)。
-
文摘
针对现有跨视角地理定位方法中视点不变特征与视角转换方法割裂导致的性能提升瓶颈问题,提出多任务联合学习模型(MJLM)。MJLM由前置图像生成模型和后置图像检索模型组成。前置生成模型首先使用逆透视映射(IPM)进行坐标变换,显式地弥合空间域差,使投影图像与真实卫星图的空间几何特征大致相同;然后通过提出的跨视角生成对抗网络(CVGAN)隐式地对图像内容及纹理进行细粒度的匹配和修复,并合成出更平滑且真实的卫星图像。后置检索模型由多视角多监督网络(MMNet)构成,能够兼顾多尺度特征和多监督学习的图像检索任务。在University-1652(无人机定位数据集)上进行实验,结果显示MJLM对无人机(UAV)定位任务的平均精确率(AP)及召回率(R@1)分别达到89.22%和87.54%,与LPN(Local Pattern Network)和MSBA(MultiScale Block Attention)相比,MJLM在R@1上分别提升了15.29%和1.07%。可见,MJLM能在一个聚合框架体系内联合处理跨视角图像生成任务及检索任务,实现基于视角转换与视点不变特征方法的融合,有效提升跨视角地理定位的精度和鲁棒性,验证UAV定位的可行性。
-
关键词
跨视角地理定位
无人机图像定位
视角转换
特征提取
深度学习
-
Keywords
cross-view geo-localization
Unmanned Aerial Vehicle(UAV)image localization
view transformation
feature extraction
deep learning
-
分类号
TP391.4
[自动化与计算机技术—计算机应用技术]
-