为提高快速路匝道区域合流冲突的识别精度,并缓解合流冲突提供决策依据,提出一种V2X(vehicle to everything)环境下基于圆风险域的交通冲突识别模型.通过V2X技术实时获取车辆位置和速度,以冲突风险时间为关键参数,分析主线车辆和匝道车...为提高快速路匝道区域合流冲突的识别精度,并缓解合流冲突提供决策依据,提出一种V2X(vehicle to everything)环境下基于圆风险域的交通冲突识别模型.通过V2X技术实时获取车辆位置和速度,以冲突风险时间为关键参数,分析主线车辆和匝道车辆的不同运动状态特性;引入风险域概念,结合车辆运动学,构建基于圆风险域冲突识别模型,进而通过两圆的位置关系表征两车之间的运动关系,实现交通冲突的识别;为细化冲突风险程度,采用累计频率曲线法判定冲突风险程度等级.仿真结果表明,采用冲突识别模型的识别率相比未采用时提高25.81%,说明该模型能有效识别匝道合流冲突,提高通行效率,并可为V2X环境下匝道合流车辆提供安全预警.展开更多
为了量化不同驾驶次任务下驾驶人视觉负荷特征,基于驾驶模拟平台搭建各类型次任务加载下的高速公路跟车场景,招募46名被试开展试验。采集驾驶人注视、扫视及瞳孔直径等眼动指标,对比不同驾驶次任务下视觉特征变化规律。基于因子分析方...为了量化不同驾驶次任务下驾驶人视觉负荷特征,基于驾驶模拟平台搭建各类型次任务加载下的高速公路跟车场景,招募46名被试开展试验。采集驾驶人注视、扫视及瞳孔直径等眼动指标,对比不同驾驶次任务下视觉特征变化规律。基于因子分析方法构建驾驶人视觉负荷评价模型,量化不同次任务下的视觉负荷。在视觉负荷量化的基础上,引入变异系数,采用K均值聚类算法将驾驶人视觉负荷分为低、中、高稳定型类别。并通过相关性分析,探究次任务下驾驶人视觉负荷与行车安全的关系。结果表明,执行快速串行视觉呈现(Rapid Serial Visual Presentation, RSVP)任务使驾驶人扫视速度和扫视幅度显著增加,单次注视持续时间显著下降。但驾驶人通过增加注视频次,弥补了总注视持续时长的下降,即采取小幅快速搜索方式补偿了视觉信息的获取。执行延迟数字召回任务(1-Back)占用驾驶人认知资源,导致视觉搜索出现弱化。驾驶人不仅减少了对非前方道路区域的关注,且扫视频率和注视持续时长占比均显著下降。视觉负荷量化模型结果显示,RSVP手机操作次任务下相比正常驾驶视觉负荷平均上升了22.29%,执行1-Back数字记忆次任务时视觉负荷平均下降了8.93%。不同驾驶人视觉负荷存在明显个体差异,64.2%的被试视觉负荷可以保持高稳定性。驾驶人视觉负荷与车速指标虽不相关,但与车头间距、车头时距和时间裕度等安全替代指标具有显著负相关,表明次任务加载下视觉负荷过高会导致驾驶绩效下降,影响行车安全。展开更多
针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny...针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny,增加小目标检测层;其次,引入SimAM(A Simple,Parameter-Free Attention Module for Convolutional Neural Networks)无参注意力机制模块,优化训练损失函数,并对其目标车辆进行轨迹跟踪及预测,通过改进的多目标跟踪算法StrongSORT(Strong Simple Online and Realtime Tracking)的短期预测不断矫正LSTM(Long Short Term Memory)的长期预测,即建立SS-LSTM模型,并将预测的超车轨迹与智能网联车自身轨迹在同一时间纬度下进行拟合,得到传统车辆切入时的风险预判模型。实验结果表明,本文的自动驾驶风险预判方法有效预判了传统车辆切入时的风险。仿真实验表明,改进YOLOV7-Tiny相比于原有算法mAP(mean Average Precision)提高了2.3个百分点,FPS(Frames Per Second)为61.35 Hz,模型大小为12.6 MB,模型满足车载端轻量化的需求。实车实验表明,根据SS-LSTM模型所得到的风险预判准确率为90.3%。展开更多
文摘为提高快速路匝道区域合流冲突的识别精度,并缓解合流冲突提供决策依据,提出一种V2X(vehicle to everything)环境下基于圆风险域的交通冲突识别模型.通过V2X技术实时获取车辆位置和速度,以冲突风险时间为关键参数,分析主线车辆和匝道车辆的不同运动状态特性;引入风险域概念,结合车辆运动学,构建基于圆风险域冲突识别模型,进而通过两圆的位置关系表征两车之间的运动关系,实现交通冲突的识别;为细化冲突风险程度,采用累计频率曲线法判定冲突风险程度等级.仿真结果表明,采用冲突识别模型的识别率相比未采用时提高25.81%,说明该模型能有效识别匝道合流冲突,提高通行效率,并可为V2X环境下匝道合流车辆提供安全预警.
文摘为了量化不同驾驶次任务下驾驶人视觉负荷特征,基于驾驶模拟平台搭建各类型次任务加载下的高速公路跟车场景,招募46名被试开展试验。采集驾驶人注视、扫视及瞳孔直径等眼动指标,对比不同驾驶次任务下视觉特征变化规律。基于因子分析方法构建驾驶人视觉负荷评价模型,量化不同次任务下的视觉负荷。在视觉负荷量化的基础上,引入变异系数,采用K均值聚类算法将驾驶人视觉负荷分为低、中、高稳定型类别。并通过相关性分析,探究次任务下驾驶人视觉负荷与行车安全的关系。结果表明,执行快速串行视觉呈现(Rapid Serial Visual Presentation, RSVP)任务使驾驶人扫视速度和扫视幅度显著增加,单次注视持续时间显著下降。但驾驶人通过增加注视频次,弥补了总注视持续时长的下降,即采取小幅快速搜索方式补偿了视觉信息的获取。执行延迟数字召回任务(1-Back)占用驾驶人认知资源,导致视觉搜索出现弱化。驾驶人不仅减少了对非前方道路区域的关注,且扫视频率和注视持续时长占比均显著下降。视觉负荷量化模型结果显示,RSVP手机操作次任务下相比正常驾驶视觉负荷平均上升了22.29%,执行1-Back数字记忆次任务时视觉负荷平均下降了8.93%。不同驾驶人视觉负荷存在明显个体差异,64.2%的被试视觉负荷可以保持高稳定性。驾驶人视觉负荷与车速指标虽不相关,但与车头间距、车头时距和时间裕度等安全替代指标具有显著负相关,表明次任务加载下视觉负荷过高会导致驾驶绩效下降,影响行车安全。
文摘针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny,增加小目标检测层;其次,引入SimAM(A Simple,Parameter-Free Attention Module for Convolutional Neural Networks)无参注意力机制模块,优化训练损失函数,并对其目标车辆进行轨迹跟踪及预测,通过改进的多目标跟踪算法StrongSORT(Strong Simple Online and Realtime Tracking)的短期预测不断矫正LSTM(Long Short Term Memory)的长期预测,即建立SS-LSTM模型,并将预测的超车轨迹与智能网联车自身轨迹在同一时间纬度下进行拟合,得到传统车辆切入时的风险预判模型。实验结果表明,本文的自动驾驶风险预判方法有效预判了传统车辆切入时的风险。仿真实验表明,改进YOLOV7-Tiny相比于原有算法mAP(mean Average Precision)提高了2.3个百分点,FPS(Frames Per Second)为61.35 Hz,模型大小为12.6 MB,模型满足车载端轻量化的需求。实车实验表明,根据SS-LSTM模型所得到的风险预判准确率为90.3%。