-
题名基于多特征交互融合的行人过街意图预测
- 1
-
-
作者
杨智勇
郭洁铷
郭子杭
许沁欣
-
机构
重庆师范大学计算机与信息科学学院
-
出处
《计算机工程与应用》
2025年第21期214-224,共11页
-
基金
重庆市自然科学基金(cstc2021ycjh-bgzxm0088)
重庆市教育委员会科学技术研究计划项目(KJZD-M202303401)
重庆市高校创新研究群体(CXQT21032)。
-
文摘
行人意图预测对于开发安全的自动驾驶辅助系统至关重要。传统方法主要采用图卷积网络和递归架构来处理人体姿态数据,这些方法在特征融合方面存在局限性,并且依赖于行人姿态信息提取的完整性,导致行人被局部遮挡时准确性降低。为了解决以上问题,提出了多特征交互融合的行人过街意图预测模型(PEPR-Net),使用头部姿态并引入了骨架热力图信息,提高了行人被遮挡时预测的准确性,并且弥补了非欧几里得骨骼点信息与其他特征之间的互补差距。在此基础上,提出了一个多特征交互混合融合模块,用级联交叉注意力融合方法处理像素信息,级联混合融合结构处理非像素信息,形成更全面的特征表示。引入一种新的非对称双向门控循环模块(UBA-GRU)进行特征融合,采用最优融合策略实现F1分数和准确率(ACC)的最佳预测性能。在PIE数据集上进行了大量的消融实验,性能分析表明,PEPR-Net的准确率达到91%。该研究结果有望为自动驾驶系统提供更准确的行人意图预测。
-
关键词
自动驾驶辅助系统
多特征交互融合
意图预测
注意力机制
骨架热力图
-
Keywords
autonomous driving assistance system
multi-feature interactive fusion
pedestrian intention
attention mechanism
skeleton heat map
-
分类号
TP391
[自动化与计算机技术]
-