on the basis of analyzing the characteristics of low light level(LLL)image and ultra-violet image and the information amount of dual channel color night vision system,the LLL and ultra-violet color night vision techni...on the basis of analyzing the characteristics of low light level(LLL)image and ultra-violet image and the information amount of dual channel color night vision system,the LLL and ultra-violet color night vision technique is put forward.The methods of gray-scale modulation,frequency field fusion,special component fusion arc tried,and the improved LLL and ultra-violet image pseudo color fusion algorithms are presented.These new algorithms include subsection gray-scale modulation,image difference picking-up,component separation based on the reflected characteristics to night skylight reflection characteristics of objects and color space mapping which embodies the spectrum response of image sensor and nature vision.Some good results are obtained.展开更多
图像异常检测旨在识别并定位图像中的异常区域,针对现有算法中不同层次特征信息利用不充分的问题,提出了基于多层次特征融合网络的图像异常检测算法。通过使用融合了异常先验知识的伪异常数据生成算法,对训练集进行了异常数据扩充,将异...图像异常检测旨在识别并定位图像中的异常区域,针对现有算法中不同层次特征信息利用不充分的问题,提出了基于多层次特征融合网络的图像异常检测算法。通过使用融合了异常先验知识的伪异常数据生成算法,对训练集进行了异常数据扩充,将异常检测任务转化为监督学习任务;构建了多层次特征融合网络,将神经网络中不同层次特征进行融合,丰富了特征中的低层纹理信息和高层语义信息,使得用于异常检测的特征更具区分性;训练时,设计了分数约束损失和一致性约束损失,并结合特征约束损失对整个网络模型进行训练。实验结果表明,MVTec数据集上图像级检测接收机工作特性曲线下面积(area under the receiver operating characteristic, AUROC)平均值为98.7%,像素级定位AUROC平均值为97.9%,每区域重叠率平均值为94.2%,均高于现有的异常检测算法。展开更多
高放废物地质处置特别是地下实验室研发过程中的多源数据融合挖掘研究具有重要意义(Wang Ju et al.,2018)。然而,目前阶段尚未实现对研发过程中多源数据的融合挖掘与二次应用。针对上述问题,从地下实验室多源监测数据特点出发,在确定地...高放废物地质处置特别是地下实验室研发过程中的多源数据融合挖掘研究具有重要意义(Wang Ju et al.,2018)。然而,目前阶段尚未实现对研发过程中多源数据的融合挖掘与二次应用。针对上述问题,从地下实验室多源监测数据特点出发,在确定地下实验室多源监测数据模型构建的基础上,结合深度学习技术,初步构建了地下实验室多源监测数据融合技术方法,并初步开展了数据融合设计,为处置库场址评价和安全评价等综合评价工作提供了新的研究思路。展开更多
为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and ma...为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and mapping,SLAM)。首先,在视觉特征点提取的基础上引入直方图均衡化,并利用激光雷达获取特征点深度信息,通过视觉特征跟踪以提升SLAM系统鲁棒性。其次,利用视觉关键帧信息对激光点云进行运动畸变校正,并将LeGO-LOAM(lightweight and groud-optimized lidar odometry and mapping)融入视觉ORBSLAM2(oriented FAST and rotated BRIEF SLAM2)以增强闭环检测与矫正性能,降低系统累计误差。最后,将视觉图像所获取的位姿进行坐标转换作为激光里程计的位姿初值,辅助激光雷达SLAM进行三维场景重建。实验结果表明:相比于传统的SLAM方法,融合后的LLV-SLAM方法平均定位时延减少了41.61%;在x、y、z方向上的平均定位误差分别减少了34.63%、38.16%、24.09%;在滚转角、俯仰角、偏航角方向上的平均旋转误差减少了40.8%、37.52%、39.5%。LLV-SLAM算法有效抑制了LeGO-LOAM算法的尺度漂移,实时性和鲁棒性有显著提升,能够满足自动驾驶车辆对多车道道路环境的感知需要。展开更多
文摘on the basis of analyzing the characteristics of low light level(LLL)image and ultra-violet image and the information amount of dual channel color night vision system,the LLL and ultra-violet color night vision technique is put forward.The methods of gray-scale modulation,frequency field fusion,special component fusion arc tried,and the improved LLL and ultra-violet image pseudo color fusion algorithms are presented.These new algorithms include subsection gray-scale modulation,image difference picking-up,component separation based on the reflected characteristics to night skylight reflection characteristics of objects and color space mapping which embodies the spectrum response of image sensor and nature vision.Some good results are obtained.
文摘图像异常检测旨在识别并定位图像中的异常区域,针对现有算法中不同层次特征信息利用不充分的问题,提出了基于多层次特征融合网络的图像异常检测算法。通过使用融合了异常先验知识的伪异常数据生成算法,对训练集进行了异常数据扩充,将异常检测任务转化为监督学习任务;构建了多层次特征融合网络,将神经网络中不同层次特征进行融合,丰富了特征中的低层纹理信息和高层语义信息,使得用于异常检测的特征更具区分性;训练时,设计了分数约束损失和一致性约束损失,并结合特征约束损失对整个网络模型进行训练。实验结果表明,MVTec数据集上图像级检测接收机工作特性曲线下面积(area under the receiver operating characteristic, AUROC)平均值为98.7%,像素级定位AUROC平均值为97.9%,每区域重叠率平均值为94.2%,均高于现有的异常检测算法。
文摘高放废物地质处置特别是地下实验室研发过程中的多源数据融合挖掘研究具有重要意义(Wang Ju et al.,2018)。然而,目前阶段尚未实现对研发过程中多源数据的融合挖掘与二次应用。针对上述问题,从地下实验室多源监测数据特点出发,在确定地下实验室多源监测数据模型构建的基础上,结合深度学习技术,初步构建了地下实验室多源监测数据融合技术方法,并初步开展了数据融合设计,为处置库场址评价和安全评价等综合评价工作提供了新的研究思路。
文摘为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and mapping,SLAM)。首先,在视觉特征点提取的基础上引入直方图均衡化,并利用激光雷达获取特征点深度信息,通过视觉特征跟踪以提升SLAM系统鲁棒性。其次,利用视觉关键帧信息对激光点云进行运动畸变校正,并将LeGO-LOAM(lightweight and groud-optimized lidar odometry and mapping)融入视觉ORBSLAM2(oriented FAST and rotated BRIEF SLAM2)以增强闭环检测与矫正性能,降低系统累计误差。最后,将视觉图像所获取的位姿进行坐标转换作为激光里程计的位姿初值,辅助激光雷达SLAM进行三维场景重建。实验结果表明:相比于传统的SLAM方法,融合后的LLV-SLAM方法平均定位时延减少了41.61%;在x、y、z方向上的平均定位误差分别减少了34.63%、38.16%、24.09%;在滚转角、俯仰角、偏航角方向上的平均旋转误差减少了40.8%、37.52%、39.5%。LLV-SLAM算法有效抑制了LeGO-LOAM算法的尺度漂移,实时性和鲁棒性有显著提升,能够满足自动驾驶车辆对多车道道路环境的感知需要。