期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
一种基于随机化视觉词典组和查询扩展的目标检索方法 被引量:9
1
作者 赵永威 李弼程 +1 位作者 彭天强 高毫林 《电子与信息学报》 EI CSCD 北大核心 2012年第5期1154-1161,共8页
在目标检索领域,当前主流的解决方案是视觉词典法(Bag of Visual Words,BoVW),然而,传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题。针对以上问题,该文提出了一种基于随机化视觉词典组和查询扩展的目标检... 在目标检索领域,当前主流的解决方案是视觉词典法(Bag of Visual Words,BoVW),然而,传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题。针对以上问题,该文提出了一种基于随机化视觉词典组和查询扩展的目标检索方法。首先,该方法采用精确欧氏位置敏感哈希(Exact Euclidean LocalitySensitive Hashing,E2LSH)对训练图像库的局部特征点进行聚类,生成一组支持动态扩充的随机化视觉词典组;然后,基于这组词典构建视觉词汇分布直方图和索引文件;最后,引入一种查询扩展策略完成目标检索。实验结果表明,与传统方法相比,该文方法有效地增强了目标对象的可区分性,能够较大地提高目标检索精度,同时,对大规模数据库有较好的适用性。 展开更多
关键词 目标检索 视觉词典法 随机化视觉词典 精确欧氏位置敏感哈希 查询扩展
在线阅读 下载PDF
一种基于精确欧氏位置敏感哈希的目标检索方法 被引量:3
2
作者 赵永威 李弼程 高毫林 《应用科学学报》 EI CAS CSCD 北大核心 2012年第4期349-355,共7页
针对目标检索问题,常用方案是视觉词典法(bag of visual words,BoVW),但传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题.针对这些问题,该文提出一种基于精确欧氏位置敏感哈希(exact Euclidean locality sen... 针对目标检索问题,常用方案是视觉词典法(bag of visual words,BoVW),但传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题.针对这些问题,该文提出一种基于精确欧氏位置敏感哈希(exact Euclidean locality sensitive Hashing,E2LSH)的目标检索方法.首先,采用E2LSH对训练图像库的局部特征点进行聚类,生成1组支持动态扩充的随机化视觉词典组;然后,基于这组词典构建视觉词汇直方图和索引文件,并由tf-idf算法对词频向量重新分配权重;最后,将目标直方图特征与索引文件进行相似性匹配,完成目标检索.实验结果表明,相比于传统方法,该方法较大地提高了检索精度,对大规模数据库有较好的适用性. 展开更多
关键词 目标检索 视觉词典法 精确欧氏位置敏感哈希 tf-idf算
在线阅读 下载PDF
一种基于压缩Fisher向量的目标检索方法
3
作者 刘辛 杨素锦 杨俊 《火力与指挥控制》 CSCD 北大核心 2015年第7期37-42,共6页
当前,视觉词典法(Bo VW,Bag of Visual Words)是解决目标检索问题的主要方法,但传统的Bo VW方法具有词典生成时间效率低、检索内存消耗大等问题。针对这些问题,提出了基于压缩Fisher向量的目标检索方法,该方法首先将Fisher核机制用于目... 当前,视觉词典法(Bo VW,Bag of Visual Words)是解决目标检索问题的主要方法,但传统的Bo VW方法具有词典生成时间效率低、检索内存消耗大等问题。针对这些问题,提出了基于压缩Fisher向量的目标检索方法,该方法首先将Fisher核机制用于目标检索,它能自动降低目标图像背景带来的不利影响,然后,采用位置敏感哈希(LSH,Locality Sensitive Hashing)对Fisher向量进行压缩编码以降低计算复杂度和内存开销,使之适用于大规模数据库。实验结果表明,新方法只用几百比特就能表征一幅图像内容,对大规模目标检索有很好的适用性,且较之当前主流的压缩视觉词典法具有更高的准确率。 展开更多
关键词 目标检索 视觉词典法 压缩Fisher向量 位置敏感哈希
在线阅读 下载PDF
一种基于证据融合的视频语义概念检测方法
4
作者 万建平 高毫林 李弼程 《信息工程大学学报》 2011年第3期327-332,共6页
提出了一种基于证据融合的视频语义概念检测方法。提取了镜头关键帧的分块颜色矩、小波纹理特征和视觉词汇直方图,利用SVM对3种特征数据分别进行训练,建立模型;对各SVM模型泛化误差进行分析,采用折扣系数法对不同SVM模型输出的分类结果... 提出了一种基于证据融合的视频语义概念检测方法。提取了镜头关键帧的分块颜色矩、小波纹理特征和视觉词汇直方图,利用SVM对3种特征数据分别进行训练,建立模型;对各SVM模型泛化误差进行分析,采用折扣系数法对不同SVM模型输出的分类结果进行修正;采用基于m in-max算子的证据融合公式对修正后的输出进行融合,把融合结果作为最终的概念检测结果。实验结果表明,新方法提高了概念检测的准确率,优于传统的线性分类器融合方法。 展开更多
关键词 视频语义概念 视觉词典法 证据理论 分类器融合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部