期刊文献+
共找到15篇文章
< 1 >
每页显示 20 50 100
基于长短期时间关系网络的视频行人重识别
1
作者 何智敏 钱江波 +2 位作者 严迪群 叶绪伦 王翀 《电子学报》 EI CAS CSCD 北大核心 2024年第8期2746-2757,共12页
行人重识别是计算机视觉领域中的一个重要研究方向,其目的是在不同的监控摄像头中识别并跟踪同一行人.由于视频帧间存在多种时间关系,从这些关系中可以获取到对象的运动模式以及细粒度特征,因此视频重识别相比图像重识别拥有更丰富的时... 行人重识别是计算机视觉领域中的一个重要研究方向,其目的是在不同的监控摄像头中识别并跟踪同一行人.由于视频帧间存在多种时间关系,从这些关系中可以获取到对象的运动模式以及细粒度特征,因此视频重识别相比图像重识别拥有更丰富的时空线索,也更接近实际应用.问题的关键是如何挖掘这些时空线索作为视频重识别的特征.本文针对视频行人重识别问题,提出了一种基于Transformer的长短期时间关系网络(Long and Short Time Transformer,LSTT).该网络包含长短期时间关系模块,提取重要时序信息并强化特征表示.长期时间关系模块利用记忆线索存储每帧信息,并在每一帧建立全局联系;短期时间关系模块则考虑相邻帧之间交互,学习细粒度目标信息,提高特征表示能力.此外,为了提高模型对不同目标特征的适配性,本文还设计了一个包含不同规格卷积核的多尺度模块.该模块具有多种卷积感受野,能够更全面覆盖目标区域,从而进一步提高模型的泛化性能.在MARS、MARS_DL和iLIDS-VID 3个数据集上的实验结果表明,LSTT模型性能最优. 展开更多
关键词 视频行人重识别 TRANSFORMER 长期时间关系 短期时间关系 多尺度
在线阅读 下载PDF
联合均等采样随机擦除和全局时间特征池化的视频行人重识别方法 被引量:4
2
作者 陈莉 王洪元 +2 位作者 张云鹏 曹亮 殷雨昌 《计算机应用》 CSCD 北大核心 2021年第1期164-169,共6页
针对为解决视频监控中遮挡、背景物干扰,以及行人外观、姿势相似性等因素导致的视频行人重识别准确率较低的问题,提出了联合均等采样随机擦除和全局时间特征池化的视频行人重识别方法。首先针对目标行人被干扰或部分遮挡的情况,采用了... 针对为解决视频监控中遮挡、背景物干扰,以及行人外观、姿势相似性等因素导致的视频行人重识别准确率较低的问题,提出了联合均等采样随机擦除和全局时间特征池化的视频行人重识别方法。首先针对目标行人被干扰或部分遮挡的情况,采用了均等采样随机擦除(ESE)的数据增强方法来有效地缓解遮挡,提高模型的泛化能力,更准确地匹配行人;其次为了进一步提高视频行人重识别的精度,学习更有判别力的特征表示,使用三维卷积神经网络(3DCNN)提取时空特征,并在网络输出行人特征表示前加上全局时间特征池化层(GTFP),这样既能获取上下文的空间信息,又能细化帧与帧之间的时序信息。通过在MARS、DukeMTMC-VideoReID和PRID-2011三个公共视频数据集上的大量实验,证明所提出的联合均等采样随机擦除和全局时间特征池化的方法,相较于目前一些先进的视频行人重识别方法,具有一定的竞争力。 展开更多
关键词 视频行人重识别 三维卷积神经网络 全局时间特征表示 均等采样随机擦除 数据增强
在线阅读 下载PDF
时域模型对视频行人重识别性能影响的研究
3
作者 项俊 林染染 +1 位作者 黄子源 侯建华 《计算机工程与应用》 CSCD 北大核心 2020年第20期152-157,共6页
行人重识别是计算机视觉领域一个重要的研究方向。近年来,随着视频监控需求的日益增长,基于视频序列的行人重识别研究受到了广泛的关注。典型的视频序列行人重识别系统由三部分构成:图片特征提取器(例如卷积神经网络)、提取时域信息的... 行人重识别是计算机视觉领域一个重要的研究方向。近年来,随着视频监控需求的日益增长,基于视频序列的行人重识别研究受到了广泛的关注。典型的视频序列行人重识别系统由三部分构成:图片特征提取器(例如卷积神经网络)、提取时域信息的时域模型、损失函数。在固定特征提取器和损失函数的前提下,研究不同时域模型对视频行人重识别算法性能的影响,包括时域池化、时域注意力、循环神经网络。在Mars数据集上的实验结果表明:与基于图像的行人重识别基准算法相比,采用时域池化模型、时间注意力模型可以有效改善识别精度,但采用循环神经网络后识别效果比基准算法有所下降。 展开更多
关键词 视频行人重识别 深度神经网络 特征提取 时域模型
在线阅读 下载PDF
结合时序和质量评估的视频行人重识别
4
作者 张智 田开心 《计算机工程与设计》 北大核心 2023年第11期3427-3432,共6页
针对行人重识别中出现的行人遮挡、图像质量参差不齐的情况,提出一种结合时序和局域质量评估的网络模型。从时序信息和质量评估两方面出发,利用时序信息和注意力机制弥补空间上出现的噪音或者缺失,进一步提高基础特征表达的判别能力;将... 针对行人重识别中出现的行人遮挡、图像质量参差不齐的情况,提出一种结合时序和局域质量评估的网络模型。从时序信息和质量评估两方面出发,利用时序信息和注意力机制弥补空间上出现的噪音或者缺失,进一步提高基础特征表达的判别能力;将行人图像按比例分割为3段,分别进行局域质量评估;将得到的分数作为权重与行人特征加权求和得到最终的特征。将ResNet-50作为主干网络,在MARS、DukeMTMC-VideoReID和PRID-2011数据集上的实验结果表明,该网络模型在行人重识别准确率上有一定提升。 展开更多
关键词 视频行人重识别 时序信息 质量评估 注意力机制 深度学习 卷积神经网络 度量学习
在线阅读 下载PDF
近邻中心迭代策略的单标注视频行人重识别 被引量:7
5
作者 张云鹏 王洪元 +4 位作者 张继 陈莉 吴琳钰 顾嘉晖 陈强 《软件学报》 EI CSCD 北大核心 2021年第12期4025-4035,共11页
为解决视频行人重识别数据集标注困难的问题,提出了基于单标注样本视频行人重识别的近邻中心迭代策略.该策略逐步利用伪标签视频片段迭代更新网络结构,以获得最佳的模型.针对预测无标签视频片段的伪标签准确率低的问题,提出了一种标签... 为解决视频行人重识别数据集标注困难的问题,提出了基于单标注样本视频行人重识别的近邻中心迭代策略.该策略逐步利用伪标签视频片段迭代更新网络结构,以获得最佳的模型.针对预测无标签视频片段的伪标签准确率低的问题,提出了一种标签评估方法:每次训练后,将所选取的伪标签视频片段和有标签视频片段特征中每个类的中心点作为下一次训练中预测伪标签的度量中心点;同时提出基于交叉熵损失和在线实例匹配损失的损失控制策略,使得训练过程更加稳定,无标签数据的伪标签预测准确率更高.在MARS,DukeMTMC-VideoReID这两个大型数据集上的实验验证了该方法相比于最新的先进方法,在性能上得到非常好的提升. 展开更多
关键词 视频行人重识别 近邻中心迭代策略 标签评估方法 单标注 损失控制策略
在线阅读 下载PDF
基于多样性约束和离散度分层聚类的无监督视频行人重识别 被引量:6
6
作者 曹亮 王洪元 +2 位作者 戴臣超 陈莉 刘乾 《南京航空航天大学学报》 EI CAS CSCD 北大核心 2020年第5期752-759,共8页
视频行人重识别是一项应用非常广的计算机视觉任务。目前的视频行人重识别方法通常是基于监督学习的,该方法需要手工标记大量的数据,代价非常高且并不适用于现实场景。本文提出了一种从底向上的基于多样性约束和离散度分层聚类的无监督... 视频行人重识别是一项应用非常广的计算机视觉任务。目前的视频行人重识别方法通常是基于监督学习的,该方法需要手工标记大量的数据,代价非常高且并不适用于现实场景。本文提出了一种从底向上的基于多样性约束和离散度分层聚类的无监督视频行人重识别方法。该方法首先将每个样本当作是一个不同的类,然后结合类内间离散度进行从底向上的分层聚类,类间和类内离散度都小的类别将被优先合并,同时在聚类准则中加入一项多样性约束来平衡每类中的样本数量,最后,利用线性变化的特征存储器动态更新模型。在Mars和DukeMTMC⁃VideoReID两个大型视频数据集上的实验结果表明,相比于目前先进的无监督视频行人重识别方法,本文方法在性能上有一定的提升。 展开更多
关键词 无监督视频行人重识别 离散度 聚类 特征存储器 多样性约束
在线阅读 下载PDF
基于步行周期聚类的视频行人重识别关键帧提取算法 被引量:7
7
作者 李梦静 吉根林 赵斌 《南京航空航天大学学报》 CAS CSCD 北大核心 2021年第5期780-788,共9页
视频行人重识别旨在不同摄像头拍摄的视频中检索特定行人。但是,它面临着数据量庞大和视频数据存在时间冗余的问题,即视频数据耗费大量的存储空间且不同帧之间存在极强的相关性。因此,使用所有的帧进行识别会带来查询效率的下降,而且视... 视频行人重识别旨在不同摄像头拍摄的视频中检索特定行人。但是,它面临着数据量庞大和视频数据存在时间冗余的问题,即视频数据耗费大量的存储空间且不同帧之间存在极强的相关性。因此,使用所有的帧进行识别会带来查询效率的下降,而且视频中大量的干扰和噪声也会给准确率带来不利影响。本文提出了基于步行周期聚类的视频行人重识别关键帧提取算法,首先利用行人步行时双脚距离变化的周期性规律提取候选步行周期,然后利用聚类的方法从候选步行周期中选出关键步行周期作为关键帧。最后,将该算法应用在视频行人重识别中,仅使用关键帧的信息进行识别以减少时间冗余的影响,从而提高准确率,并且在查询前对视频进行处理,减少视频数据量以提高查询效率。在视频行人重识别数据集MARS和DukeMTMC-VideoReID上的实验表明,本文算法能够减少59%~82%的视频数据量,并且累积匹配曲线Rank-1提高了1.1%~1.4%,平均精度均值提高了0.2%~5%。 展开更多
关键词 视频行人重识别 关键帧提取 步行周期 聚类 视频分析
在线阅读 下载PDF
基于时序多尺度互补特征的视频行人重识别 被引量:4
8
作者 侯瑞兵 常虹 +2 位作者 马丙鹏 黄锐 山世光 《计算机学报》 EI CAS CSCD 北大核心 2023年第1期31-50,共20页
视频行人重识别在监控场景中起着非常重要的作用.但是,大多数现有方法没有充分利用行人视频序列的时空信息.具体来说,这些方法以相同的分辨率和网络结构处理每一帧图像,造成连续帧特征的高度相似.此外,现有方法通常通过引入各种复杂的... 视频行人重识别在监控场景中起着非常重要的作用.但是,大多数现有方法没有充分利用行人视频序列的时空信息.具体来说,这些方法以相同的分辨率和网络结构处理每一帧图像,造成连续帧特征的高度相似.此外,现有方法通常通过引入各种复杂的操作提高精度,过多的计算开销使其不利于真实场景的部署.针对上述问题,本文提出了一个时序多尺度互补网络,旨在高效地为视频的连续帧提取互补的特征.具体来说,时序多尺度互补网络包含多个具有不同输入分辨率的分支.其中,高分辨率分支处理原始分辨率帧,用于保留行人的细节线索;低分辨率分支处理以不同降采样率得到的低分辨率帧,用于捕捉更全局的行人信息.通过将连续帧输入到不同分支中,连续帧能关注不同粒度的空间区域,生成互补的特征.进一步,设计了一个多分支批量归一化层,保证了训练时分支之间的互补性.最后,提出一个跨分支融合模块,将低分辨率分支的全局信息逐步传播到高分辨分支中,得到一个融合了多尺度全局粗粒度和局部细粒度互补信息的特征.在iLIDS-VID,MARS和LS-VID三个数据集上的实验显示,本文提出的方法达到了比目前最好方法更好的性能,例如,在LS-VID上提升了4.5%mAP和3.1%top-1精度,证明了该方法的有效性.此外,通过降低输入帧的分辨率和使用更小的网络处理低分辨率帧,本文方法大幅度降低了计算开销,仅需要大多数现有方法约35%的计算开销. 展开更多
关键词 视频行人重识别 多分支架构 多尺度特征表示
在线阅读 下载PDF
基于图模型与加权损失策略的视频行人重识别研究 被引量:3
9
作者 徐志晨 王洪元 +1 位作者 齐鹏宇 欣子豪 《计算机应用研究》 CSCD 北大核心 2022年第2期598-603,共6页
针对监控视频中行人外观、姿态相似等现象导致的视频行人重识别准确率低的问题进行了研究,提出了一种基于图模型的视频行人重识别方法,有效利用了视频中的时序信息,实现跨帧及帧内区域的信息交互。具体来说,利用跨帧分块区域间的关联信... 针对监控视频中行人外观、姿态相似等现象导致的视频行人重识别准确率低的问题进行了研究,提出了一种基于图模型的视频行人重识别方法,有效利用了视频中的时序信息,实现跨帧及帧内区域的信息交互。具体来说,利用跨帧分块区域间的关联信息建立区域节点间的固有关系,并进行特征传播迭代更新区域信息。另一方面,在度量学习过程中,提出了一种加权损失函数策略,这个方法将先前挖掘策略中的二进制分配法(即丢弃或保留该样本)优化为连续分数分配法,解决了可用样本未被有效利用的问题。将模型在MARS和DukeMTMC-VideoReID两个数据集上进行了评估,实验结果证实了提出方法的有效性。 展开更多
关键词 视频行人重识别 深度学习 图模型 加权损失策略 注意力机制
在线阅读 下载PDF
时间特征互补的无监督视频行人重识别 被引量:1
10
作者 王福银 韩华 +1 位作者 黄丽 陈益平 《计算机工程》 CAS CSCD 北大核心 2022年第10期313-320,共8页
目前的视频行人重识别方法不能有效提取视频帧之间的时空信息,且需要解决人工标签的问题,提出一种时间特征互补的无监督视频行人重识别方法。利用时间特征擦除网络模块对视频帧与帧之间的时间信息特征及空间信息特征进行擦除提取,挖掘... 目前的视频行人重识别方法不能有效提取视频帧之间的时空信息,且需要解决人工标签的问题,提出一种时间特征互补的无监督视频行人重识别方法。利用时间特征擦除网络模块对视频帧与帧之间的时间信息特征及空间信息特征进行擦除提取,挖掘行人不同的特征以减少每帧特征的冗余,进而得到目标行人不同视觉的完整特征。通过约束性无监督层次聚类模块计算每个样本之间的距离得到高质量的不同身份集群,根据集群之间距离进行聚类生成高质量的伪标签,提高不同身份极度相似的样本识别性,并根据PK抽样困难样本三元组损失模块从已经聚类好的结果中抽取样本生成一个新的数据集,以便在每次聚类迭代后进行训练,减少困难样例对模型的影响。在MARS数据集和DukeMTMC-VideoReID数据集上的实验结果表明,该方法的平均精度均值分别达到了46.4%和72.5%,Rank-1分别达到了69.3%和80.5%,性能指标优于传统的RACM和DAL等方法。 展开更多
关键词 无监督视频行人重识别 离散度 聚类 多样性约束 时间特征
在线阅读 下载PDF
特征分块重构的视频行人重识别算法 被引量:1
11
作者 王锦华 周非 +1 位作者 白梦林 舒浩峰 《数据采集与处理》 CSCD 北大核心 2023年第3期565-573,共9页
基于视频的行人重识别是将一段视频轨迹与剪辑后的视频帧进行匹配,从而实现在不同的摄像头下识别同一行人。但由于现实场景的复杂性,采集到的行人轨迹会存在严重的外观丢失和错位,传统的三维卷积将不再适用于视频行人重识别任务。针对... 基于视频的行人重识别是将一段视频轨迹与剪辑后的视频帧进行匹配,从而实现在不同的摄像头下识别同一行人。但由于现实场景的复杂性,采集到的行人轨迹会存在严重的外观丢失和错位,传统的三维卷积将不再适用于视频行人重识别任务。针对这一问题,提出三维特征分块重构模型,利用第一张特征图在水平分块的级别上对后续特征图进行对齐。在保证特征质量的前提下充分挖掘轨迹的时间信息,在特征重构模型后加入三维卷积核,并且将它与现有的三维卷积网络相结合。此外,还引入一种由粗到细的特征分块重构网络,不仅能使模型在两种不同尺度的空间维度上进行特征重构,还能进一步减少计算开销。实验表明,由粗到细的特征分块重构网络在MARS和DukeMTMC⁃VideoReID数据集上取得了良好的结果。 展开更多
关键词 视频行人重识别 特征分块 特征 三维卷积 由粗到细的特征分块构网络
在线阅读 下载PDF
基于单标注样本的多损失学习与联合度量视频行人重识别
12
作者 殷雨昌 王洪元 +2 位作者 陈莉 冯尊登 肖宇 《计算机应用》 CSCD 北大核心 2022年第3期764-769,共6页
为解决行人重识别标注成本巨大的问题,提出了基于单标注样本的多损失学习与联合度量视频行人重识别方法。针对标签样本数量少,得到的模型不够鲁棒的问题,提出了多损失学习(MLL)策略:在每次训练过程中,针对不同的数据,采用不同的损失函... 为解决行人重识别标注成本巨大的问题,提出了基于单标注样本的多损失学习与联合度量视频行人重识别方法。针对标签样本数量少,得到的模型不够鲁棒的问题,提出了多损失学习(MLL)策略:在每次训练过程中,针对不同的数据,采用不同的损失函数进行优化,提高模型的判别力。其次,在标签估计时,提出了一个联合距离度量(JDM),该度量将样本距离和近邻距离结合,进一步提升伪标签预测的精度。JDM改善了无标签数据标签估计的准确率低、未标记的数据没有被充分利用导致训练过程不稳定的问题。实验结果表明,和单标注样本渐进学习方法PL相比,当每次迭代增加的伪标签样本的比率为0.10时,在MARS和DukeMTMC-VideoReID两个数据集上的rank-1准确度达到了65.5%和76.2%,分别提升了7.6和5.2个百分点。 展开更多
关键词 视频行人重识别 单标注样本学习 半监督学习 标签估计 距离度量
在线阅读 下载PDF
视频行人重识别研究进展 被引量:7
13
作者 李梦静 吉根林 《南京师大学报(自然科学版)》 CAS CSCD 北大核心 2020年第2期120-130,共11页
视频行人重识别是指在不同摄像头拍摄的视频中检索特定行人的技术.与图像行人重识别相比,视频行人重识别赋含信息更多,包含了帧与帧之间的时间信息、运动信息等,这有利于提高行人检索的准确率,因此视频行人重识别引起了国内外学者的广... 视频行人重识别是指在不同摄像头拍摄的视频中检索特定行人的技术.与图像行人重识别相比,视频行人重识别赋含信息更多,包含了帧与帧之间的时间信息、运动信息等,这有利于提高行人检索的准确率,因此视频行人重识别引起了国内外学者的广泛关注.本文探讨了视频行人重识别的处理过程,详细介绍了其中特征提取和距离度量的方法,并对各种特征提取方法的特点及应用进行了总结,给出了一些视频行人重识别实验数据集和评价标准,提出了视频行人重识别研究领域面临的挑战及相应的解决方案,最后对视频行人重识别技术未来的研究问题做了展望. 展开更多
关键词 行人识别 视频行人重识别 视频分析 计算机视觉
在线阅读 下载PDF
基于图卷积网络与自注意力图池化的视频行人重识别方法 被引量:2
14
作者 姚英茂 姜晓燕 《计算机应用》 CSCD 北大核心 2023年第3期728-735,共8页
针对跨相机网络视频中存在的遮挡、空间不对齐、背景杂波等因素导致视频行人重识别效果较差的问题,提出一种基于图卷积网络(GCN)与自注意力图池化(SAGP)的视频行人重识别方法。首先,通过区块关系图建模挖掘视频中帧间不同区域的关联信息... 针对跨相机网络视频中存在的遮挡、空间不对齐、背景杂波等因素导致视频行人重识别效果较差的问题,提出一种基于图卷积网络(GCN)与自注意力图池化(SAGP)的视频行人重识别方法。首先,通过区块关系图建模挖掘视频中帧间不同区域的关联信息,并利用GCN优化逐帧图像中的区域特征,缓解遮挡和不对齐等问题;然后,通过SAGP机制去除对行人特征贡献较低的区域,避免背景杂波区域的干扰;最后,提出一种加权损失函数策略,使用中心损失优化分类学习结果,并使用在线软挖掘和类感知注意力(OCL)损失解决难样本挖掘过程中可用样本未被充分利用的问题。实验结果表明,在MARS数据集上,相较于次优的AITL方法,所提方法的平均精度均值(mAP)与Rank-1分别提高1.3和2.0个百点。所提方法能够较好地利用视频中的时空信息,提取更具判别力的行人特征,提高行人重识别任务的效果。 展开更多
关键词 视频行人重识别 图卷积网络 自注意力图池化 加权损失函数策略 中心损失
在线阅读 下载PDF
基于非局部关注和多重特征融合的视频行人重识别
15
作者 刘紫燕 朱明成 +2 位作者 袁磊 马珊珊 陈霖周廷 《计算机应用》 CSCD 北大核心 2021年第2期530-536,共7页
现有视频行人重识别方法无法有效地提取视频连续帧之间的时空信息,因此提出一种基于非局部关注和多重特征融合的行人重识别网络来提取全局与局部表征特征和时序信息。首先嵌入非局部关注模块来提取全局特征;然后通过提取网络的低中层特... 现有视频行人重识别方法无法有效地提取视频连续帧之间的时空信息,因此提出一种基于非局部关注和多重特征融合的行人重识别网络来提取全局与局部表征特征和时序信息。首先嵌入非局部关注模块来提取全局特征;然后通过提取网络的低中层特征和局部特征实现多重特征融合,从而获得行人的显著特征;最后将行人特征进行相似性度量并排序,计算出视频行人重识别的精度。在大数据集MARS和DukeMTMC-VideoReID上进行实现,结果显示所提出的模型较现有的多尺度三维卷积(M3D)和学习片段相似度聚合(LCSA)模型的性能均有明显提升,平均精度均值(mAP)分别达到了81.4%和93.4%,Rank-1分别达到了88.7%和95.3%;同时在小数据集PRID2011上,所提模型的Rank-1也达到94.8%。 展开更多
关键词 视频行人重识别 时空信息 全局特征 非局部关注 特征融合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部