期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
改进时空图卷积模型的双人交互行为识别算法
1
作者 姬晓飞 张薇 冯雅迪 《科学技术与工程》 北大核心 2025年第8期3316-3324,共9页
针对双人交互行为识别网络中存在忽略人体间的非自然连接关系和交互关系等突出问题,提出一种改进时空图卷积模型的双人交互行为识别算法。首先通过边卷积操作汇聚节点的边特征,以捕获人体的非自然连接关系;其次利用改进的关系网络,构建... 针对双人交互行为识别网络中存在忽略人体间的非自然连接关系和交互关系等突出问题,提出一种改进时空图卷积模型的双人交互行为识别算法。首先通过边卷积操作汇聚节点的边特征,以捕获人体的非自然连接关系;其次利用改进的关系网络,构建了双人之间的交互关系图;然后将边卷积操作分支及交互关系图嵌入时空图卷积网络块,分别构建为边-图卷积块和交互关系块;最后将两者高效融合,提出一个能同时捕捉非自然连接关系和交互关系的改进时空图卷积算法,从而实现双人交互行为识别。为验证网络的有效性,在国际公开大型标准数据集NTU RGB+D上进行测试。实验结果显示,该算法识别准确率达97.77%,相比于基线时空图卷积模型提升了4.28个百分点,提高了双人交互行为特征的表现力,取得了比现有先进网络模型更好的识别效果。 展开更多
关键词 双人交互行为识别 关节点数据 边卷积 关系网络 时空图卷积网络
在线阅读 下载PDF
基于改进时空兴趣点特征的双人交互行为识别 被引量:6
2
作者 王佩瑶 曹江涛 姬晓飞 《计算机应用》 CSCD 北大核心 2016年第10期2875-2879,2884,共6页
针对实际监控视频下双人交互行为的兴趣点特征选取不理想,且聚类词典中冗余单词导致识别率不高的问题,提出一种基于改进时空兴趣点(STIP)特征的交互行为识别方法。首先,引入基于信息熵的不可跟踪性检测方法,对序列图像进行跟踪得到交互... 针对实际监控视频下双人交互行为的兴趣点特征选取不理想,且聚类词典中冗余单词导致识别率不高的问题,提出一种基于改进时空兴趣点(STIP)特征的交互行为识别方法。首先,引入基于信息熵的不可跟踪性检测方法,对序列图像进行跟踪得到交互动作的前景运动区域,仅在此区域内提取时空兴趣点以提高兴趣点检测的准确性。其次采用3维尺度不变特性转换(3D-SIFT)描述子对检测得到的兴趣点进行表述,利用改进的模糊C均值聚类方法得到视觉词典,以提升词典的分布特性;在此基础上建立词袋模型,即将训练集样本向词典进行投影得到每帧图像的直方图统计特征表示。最后,采用帧帧最近邻分类方法进行双人交互动作识别。在UT-interaction数据库上进行测试,该算法得到了91.7%的正确识别率。实验结果表明,通过不可跟踪性检测得到的时空兴趣点的改进词袋算法可以较大程度提高交互行为识别的准确率,并且适用于动态背景下的双人交互行为识别。 展开更多
关键词 时空兴趣点 信息熵 双人交互行为识别 词袋模型 模糊C均值 3维尺度不变特性转换 最近邻分类器
在线阅读 下载PDF
CNN A-BLSTM network的双人交互行为识别 被引量:4
3
作者 赵挺 曹江涛 姬晓飞 《电子测量与仪器学报》 CSCD 北大核心 2021年第11期100-107,共8页
关节点数据结合卷积神经网络用于双人交互行为识别存在图像化过程中对交互信息表达不充分且不能有效建模时序关系问题,而结合循环神经网络中存在侧重于对时间信息的表示却忽略了双人交互空间结构信息构建的问题。为此提出一种新的卷积... 关节点数据结合卷积神经网络用于双人交互行为识别存在图像化过程中对交互信息表达不充分且不能有效建模时序关系问题,而结合循环神经网络中存在侧重于对时间信息的表示却忽略了双人交互空间结构信息构建的问题。为此提出一种新的卷积神经网络结合加入注意机制的双向长短时期记忆网络(CNN A-BLSTM)模型。首先对每个人的关节点采用基于遍历树结构进行排列,然后对视频中的每一帧数据构建交互矩阵,矩阵的中的数值为排列后双人之间所有的关节点坐标间的欧氏距离,将矩阵进行灰度图像编码后所得图像依次送入CNN中提取深层次特征得到特征序列,然后将所得序列送入A-BLSTM网络中进行时序建模,最后送入Softmax分类器得到识别结果。将新模型用于NTU RGB D数据集中的11类双人交互行为的识别,其准确率为90%,高于目前的双人交互行为识别算法,验证了该模型的有效性和良好的泛化性能。 展开更多
关键词 双人交互行为识别 深度学习 卷积神经网络 双向长短时期记忆网络 注意机制
在线阅读 下载PDF
基于RGB和关节点数据融合模型的双人交互行为识别 被引量:13
4
作者 姬晓飞 秦琳琳 王扬扬 《计算机应用》 CSCD 北大核心 2019年第11期3349-3354,共6页
基于RGB视频序列的双人交互行为识别已经取得了重大进展,但因缺乏深度信息,对于复杂的交互动作识别不够准确。深度传感器(如微软Kinect)能够有效提高全身各关节点的跟踪精度,得到准确的人体运动及变化的三维关节点数据。依据RGB视频和... 基于RGB视频序列的双人交互行为识别已经取得了重大进展,但因缺乏深度信息,对于复杂的交互动作识别不够准确。深度传感器(如微软Kinect)能够有效提高全身各关节点的跟踪精度,得到准确的人体运动及变化的三维关节点数据。依据RGB视频和关节点数据的各自特性,提出一种基于RGB和关节点数据双流信息融合的卷积神经网络(CNN)结构模型。首先,利用Vibe算法获得RGB视频在时间域的感兴趣区域,之后提取关键帧映射到RGB空间,以得到表示视频信息的时空图,并把图送入CNN提取特征;然后,在每帧关节点序列中构建矢量,以提取余弦距离(CD)和归一化幅值(NM)特征,将单帧中的余弦距离和关节点特征按照关节点序列的时间顺序连接,馈送入CNN学习更高级的时序特征;最后,将两种信息源的softmax识别概率矩阵进行融合,得到最终的识别结果。实验结果表明,将RGB视频信息和关节点信息结合可以有效地提高双人交互行为识别结果,在国际公开的SBU Kinect interaction数据库和NTU RGB+D数据库中分别达到92.55%和80.09%的识别率,证明了提出的模型对双人交互行为识别的有效性。 展开更多
关键词 RGB视频 关节点数据 卷积神经网路 softmax 融合 双人交互行为识别
在线阅读 下载PDF
基于跨主体交互和多尺度时间增强的行为识别方法
5
作者 张君逸 赵培培 +3 位作者 梁松 杨迪 孙奥然 肖涛 《计算机应用研究》 2025年第9期2847-2855,共9页
在图像/视频的行为识别算法中,存在骨骼图数据利用不充分、模型忽略运动中的交互语义信息,以及捕获运动中长短时信息不足等问题,导致在双人交互行为和相似动作场景下识别准确率不高。为解决这些问题,提出一种基于跨主体交互和多尺度时... 在图像/视频的行为识别算法中,存在骨骼图数据利用不充分、模型忽略运动中的交互语义信息,以及捕获运动中长短时信息不足等问题,导致在双人交互行为和相似动作场景下识别准确率不高。为解决这些问题,提出一种基于跨主体交互和多尺度时间增强的CTR-GCN(channel-wise topology refinement graph convolution net)网络的行为识别模型。针对输入骨骼图利用不充分的问题,将图数据进行分解来作数据增强,并设计集成网络来处理这些信息。现有算法主要学习单个主体的节点间的关系,忽略了双人交互行为时的交互语义信息的问题,设计了一种跨主体交互的Cformer(Cross-Transformer)深入学习主体间的交互特征。针对图卷积对时序信息中长短帧间信息处理不足的问题,提出了多尺度时间建模来增强模型对长短时特征的提取能力。实验结果表明,模型在NTU-RGBD和NTU-RGBD 120数据集上达到92.7%和89.4%的准确率,尤其在双人交互行为以及相似动作行为的场景下表现优异,验证了模型的有效性。 展开更多
关键词 行为识别 图卷积网络 CTR-GCN 双人交互行为识别 Transformer 注意力机制
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部