工业机器人的精度性能较大程度地影响其在各领域中的应用。为实现并联机器人的位姿测量和参数标定,设计了基于拉线传感器的位姿测量系统,并针对该系统研究了位姿测量精度的补偿方法,从而满足性能要求。首先,根据位姿测量系统的机械结构...工业机器人的精度性能较大程度地影响其在各领域中的应用。为实现并联机器人的位姿测量和参数标定,设计了基于拉线传感器的位姿测量系统,并针对该系统研究了位姿测量精度的补偿方法,从而满足性能要求。首先,根据位姿测量系统的机械结构建立其运动学模型;其次,分析位姿测量系统的传感器误差和结构参数误差,并通过误差拟合将拉线传感器的测量误差降低到0.1 mm以下;最后,通过实验验证该位姿测量系统的位姿测量精度和标定效果。实验结果表明,经过激光跟踪仪标定后的位姿测量系统的平均位置精度和平均姿态精度分别达到0.216 mm和0.055°。利用该位姿测量系统对六自由度Stewart并联机器人进行标定,标定后的六自由度Stewart并联机器人平均位姿误差从(2.706 mm, 1.067°)降低到(0.778 mm, 0.493°)。因此,所设计的基于拉线传感器的位姿测量系统能够精确测量机器人位置和姿态,并且能够满足并联机器人运动学参数标定的要求。展开更多
针对复杂多变的交通环境中行人追踪常遇到的局部遮挡与ID频繁变换等问题,提出一种融合YOLOv8(You Only Look Once-v8)和改进后的深度关联度量(Simple Online and Realtime Tracking with a Deep Association Metric,DeepSORT)的多目标...针对复杂多变的交通环境中行人追踪常遇到的局部遮挡与ID频繁变换等问题,提出一种融合YOLOv8(You Only Look Once-v8)和改进后的深度关联度量(Simple Online and Realtime Tracking with a Deep Association Metric,DeepSORT)的多目标行人追踪方法。首先,为增强在密集交通场景下捕捉目标行人特征信息的能力,在检测阶段选用YOLOv8算法,该算法具有高效的小尺度特征处理能力,确保了检测的精确与快速。其次,针对行人追踪的实时需求,在DeepSORT的基础上引入OSNet(Omni-Scale Network)作为特征提取网络。OSNet通过多尺度动态融合策略,为后续追踪提供了更加丰富精准的信息基础。然后,针对传统卡尔曼滤波在非线性运动轨迹预测中的局限性,设计了一种创新的自适应遗忘卡尔曼滤波算法(Filter Smoothing Kalman Algorithm,FSA),该算法能够灵活调整滤波参数,有效应对复杂交通场景下行人运动的不确定性,显著提升预测精度。此外,为提升追踪过程中的数据匹配稳定性与准确性,将DeepSORT原有的交并比(Intersection over Union,IOU)关联匹配机制替换为改进的交并比(Complete-Intersection over Union,CIOU)算法。CIOU不仅考虑了目标间的重叠程度,还融入了形状和大小等几何信息,有效降低了漏检率与误检率。最后,为进一步削弱多重噪声对追踪性能的影响,引入具有较强泛化能力的轨迹特征提取器(Trajectory Feature Extractor,GFModel)。该模型通过平均池化技术,将局部细节与全局上下文信息有机融合,实现对目标行人轨迹的精准追踪与预测。实验结果显示,该方法在实现高达77.9%的追踪精度的同时,保持了55.8帧/s(Frame Per Second,FPS)的处理速度,充分满足了实际复杂交通环境下的高效与精准追踪需求。展开更多
文摘工业机器人的精度性能较大程度地影响其在各领域中的应用。为实现并联机器人的位姿测量和参数标定,设计了基于拉线传感器的位姿测量系统,并针对该系统研究了位姿测量精度的补偿方法,从而满足性能要求。首先,根据位姿测量系统的机械结构建立其运动学模型;其次,分析位姿测量系统的传感器误差和结构参数误差,并通过误差拟合将拉线传感器的测量误差降低到0.1 mm以下;最后,通过实验验证该位姿测量系统的位姿测量精度和标定效果。实验结果表明,经过激光跟踪仪标定后的位姿测量系统的平均位置精度和平均姿态精度分别达到0.216 mm和0.055°。利用该位姿测量系统对六自由度Stewart并联机器人进行标定,标定后的六自由度Stewart并联机器人平均位姿误差从(2.706 mm, 1.067°)降低到(0.778 mm, 0.493°)。因此,所设计的基于拉线传感器的位姿测量系统能够精确测量机器人位置和姿态,并且能够满足并联机器人运动学参数标定的要求。
文摘针对复杂多变的交通环境中行人追踪常遇到的局部遮挡与ID频繁变换等问题,提出一种融合YOLOv8(You Only Look Once-v8)和改进后的深度关联度量(Simple Online and Realtime Tracking with a Deep Association Metric,DeepSORT)的多目标行人追踪方法。首先,为增强在密集交通场景下捕捉目标行人特征信息的能力,在检测阶段选用YOLOv8算法,该算法具有高效的小尺度特征处理能力,确保了检测的精确与快速。其次,针对行人追踪的实时需求,在DeepSORT的基础上引入OSNet(Omni-Scale Network)作为特征提取网络。OSNet通过多尺度动态融合策略,为后续追踪提供了更加丰富精准的信息基础。然后,针对传统卡尔曼滤波在非线性运动轨迹预测中的局限性,设计了一种创新的自适应遗忘卡尔曼滤波算法(Filter Smoothing Kalman Algorithm,FSA),该算法能够灵活调整滤波参数,有效应对复杂交通场景下行人运动的不确定性,显著提升预测精度。此外,为提升追踪过程中的数据匹配稳定性与准确性,将DeepSORT原有的交并比(Intersection over Union,IOU)关联匹配机制替换为改进的交并比(Complete-Intersection over Union,CIOU)算法。CIOU不仅考虑了目标间的重叠程度,还融入了形状和大小等几何信息,有效降低了漏检率与误检率。最后,为进一步削弱多重噪声对追踪性能的影响,引入具有较强泛化能力的轨迹特征提取器(Trajectory Feature Extractor,GFModel)。该模型通过平均池化技术,将局部细节与全局上下文信息有机融合,实现对目标行人轨迹的精准追踪与预测。实验结果显示,该方法在实现高达77.9%的追踪精度的同时,保持了55.8帧/s(Frame Per Second,FPS)的处理速度,充分满足了实际复杂交通环境下的高效与精准追踪需求。