针对视觉SLAM(simultaneous localization and mapping)算法在动态环境下容易出现重定位失败的问题,提出了一种基于自身运动约束的动态SLAM算法。采用YOLOv5s初步区分前景与背景特征点,仅利用背景特征点进行位姿初始化;利用IMU位姿信息...针对视觉SLAM(simultaneous localization and mapping)算法在动态环境下容易出现重定位失败的问题,提出了一种基于自身运动约束的动态SLAM算法。采用YOLOv5s初步区分前景与背景特征点,仅利用背景特征点进行位姿初始化;利用IMU位姿信息不受动态环境影响的特性,计算每个特征点的自身运动约束值;根据背景特征点的特征约束结果设计了动态概率模型,自适应确定当前帧特征点约束的动态阈值,去除动态特征点并更新相机位姿。使用仿真数据集和真实环境数据集进行了实验验证。实验结果表明,在仿真数据集中,该方法能去除沿极线运动的特征点,相较于Dyna-SLAM,在均方根误差和标准差两项指标的提升率为87.81%和83.17%,相较于AirDos提升率分别为51.62%和41.91%。真实动态环境中重定位能力强于Dyna-SLAM,较AirDos无明显精度提升但运行速度提升29.48%。展开更多
随着互联网信息的发展,如何有效地表示不同语言所含的信息已成为自然语言处理(Natural Language Processing,NLP)领域的一项重要任务.然而,很多传统的机器学习模型依赖在高资源语言中进行训练,无法迁移到低资源语言中使用.为了解决这一...随着互联网信息的发展,如何有效地表示不同语言所含的信息已成为自然语言处理(Natural Language Processing,NLP)领域的一项重要任务.然而,很多传统的机器学习模型依赖在高资源语言中进行训练,无法迁移到低资源语言中使用.为了解决这一问题,结合迁移学习和深度学习模型,提出一种多语言双向编码器表征量(Multi-lingual Bidirectional Encoder Representations from Transformers,M-BERT)的迁移学习方法.该方法利用M-BERT作为特征提取器,在源语言领域和目标语言领域之间进行特征转换,减小不同语言领域之间的差异,从而提高目标任务在不同领域之间的泛化能力.首先,在构建BERT模型的基础上,通过数据收集处理、训练设置、参数估计和模型训练等预训练操作完成M-BERT模型的构建,并在目标任务上进行微调.然后,利用迁移学习实现M-BERT模型在跨语言文本分析方面的应用.最后,在从英语到法语和德语的跨语言迁移实验中,证明了本文模型具有较高的性能质量和较小的计算量,并在联合训练方案中达到了96.2%的准确率.研究结果表明,该文模型实现了跨语言数据迁移,且验证了其在跨语言NLP领域的有效性和创新性.展开更多
文摘针对视觉SLAM(simultaneous localization and mapping)算法在动态环境下容易出现重定位失败的问题,提出了一种基于自身运动约束的动态SLAM算法。采用YOLOv5s初步区分前景与背景特征点,仅利用背景特征点进行位姿初始化;利用IMU位姿信息不受动态环境影响的特性,计算每个特征点的自身运动约束值;根据背景特征点的特征约束结果设计了动态概率模型,自适应确定当前帧特征点约束的动态阈值,去除动态特征点并更新相机位姿。使用仿真数据集和真实环境数据集进行了实验验证。实验结果表明,在仿真数据集中,该方法能去除沿极线运动的特征点,相较于Dyna-SLAM,在均方根误差和标准差两项指标的提升率为87.81%和83.17%,相较于AirDos提升率分别为51.62%和41.91%。真实动态环境中重定位能力强于Dyna-SLAM,较AirDos无明显精度提升但运行速度提升29.48%。
文摘随着互联网信息的发展,如何有效地表示不同语言所含的信息已成为自然语言处理(Natural Language Processing,NLP)领域的一项重要任务.然而,很多传统的机器学习模型依赖在高资源语言中进行训练,无法迁移到低资源语言中使用.为了解决这一问题,结合迁移学习和深度学习模型,提出一种多语言双向编码器表征量(Multi-lingual Bidirectional Encoder Representations from Transformers,M-BERT)的迁移学习方法.该方法利用M-BERT作为特征提取器,在源语言领域和目标语言领域之间进行特征转换,减小不同语言领域之间的差异,从而提高目标任务在不同领域之间的泛化能力.首先,在构建BERT模型的基础上,通过数据收集处理、训练设置、参数估计和模型训练等预训练操作完成M-BERT模型的构建,并在目标任务上进行微调.然后,利用迁移学习实现M-BERT模型在跨语言文本分析方面的应用.最后,在从英语到法语和德语的跨语言迁移实验中,证明了本文模型具有较高的性能质量和较小的计算量,并在联合训练方案中达到了96.2%的准确率.研究结果表明,该文模型实现了跨语言数据迁移,且验证了其在跨语言NLP领域的有效性和创新性.