期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
聚焦难样本的区分尺度的文字检测方法 被引量:4
1
作者 林泓 卢瑶瑶 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2019年第8期1506-1516,共11页
针对卷积神经网络中间特征层信息利用不充分,以及不区分尺度和难易样本的学习所导致的文字检测精度难以提高的问题,提出基于多路精细化特征融合的聚焦难样本的区分尺度的自然场景文字检测方法.构建多路精细化的卷积神经网络融合层提取... 针对卷积神经网络中间特征层信息利用不充分,以及不区分尺度和难易样本的学习所导致的文字检测精度难以提高的问题,提出基于多路精细化特征融合的聚焦难样本的区分尺度的自然场景文字检测方法.构建多路精细化的卷积神经网络融合层提取高分辨率特征图;按照文字标注矩形框的较长边的尺寸,将文字实例划分为3种尺度范围,并分布到不同的候选框提取网络中提取相应的候选框;设计聚焦损失函数对难样本进行重点学习以提高模型的表达能力并得到目标文字框.实验表明,所提出的多路精细化特征提取方法在COCO-Text数据集上的文字召回率较高,聚焦难样本的区分尺度的文字检测方法在ICDAR2013、ICDAR2015标准数据集上的检测精度分别为0.89、0.83,与CTPN、RRPN等方法相比,在多尺度多方向的自然场景图像中具有更强的鲁棒性. 展开更多
关键词 深度学习 自然场景 文字检测 特征融合 难样本 聚焦损失
在线阅读 下载PDF
基于边缘检测和特征融合的自然场景文本定位 被引量:5
2
作者 王梦迪 张友梅 常发亮 《计算机科学》 CSCD 北大核心 2017年第9期300-303,314,共5页
文本定位作为文本识别的基础和前提,对图像深层信息的理解至关重要。针对自然场景下的文本定位受光照、复杂背景等因素影响较大的问题,提出了一种基于多方向边缘检测和自适应特征融合的自然场景文本定位方法。该方法首先将自然场景图像... 文本定位作为文本识别的基础和前提,对图像深层信息的理解至关重要。针对自然场景下的文本定位受光照、复杂背景等因素影响较大的问题,提出了一种基于多方向边缘检测和自适应特征融合的自然场景文本定位方法。该方法首先将自然场景图像进行三通道八方向的边缘检测;然后通过启发式规则对得到的边缘图像进行过滤从而提取出备选文本域,进而对备选文本域进行自适应权值的HOG-LBP特征提取与融合;最后采用支持向量机进行特征分类学习,实现文本定位。实验结果表明,该方法能准确定位自然场景图片的文本区域,对光照和复杂背景具有较强的鲁棒性。 展开更多
关键词 自然场景 文本定位 边缘检测 特征融合
在线阅读 下载PDF
基于注意力机制与深度多尺度特征融合的自然场景文本检测 被引量:3
3
作者 李雨 闫甜甜 +1 位作者 周东生 魏小鹏 《图学学报》 CSCD 北大核心 2023年第3期473-481,共9页
针对现有场景文本检测方法不能深入挖掘并充分融合多尺度文本实例判别性特征的问题,提出一种基于注意力机制与深度多尺度特征融合的自然场景文本检测方法。首先采用带有注意力增强的ResNeSt50作为骨干网络,提取文本实例在不同尺度上更... 针对现有场景文本检测方法不能深入挖掘并充分融合多尺度文本实例判别性特征的问题,提出一种基于注意力机制与深度多尺度特征融合的自然场景文本检测方法。首先采用带有注意力增强的ResNeSt50作为骨干网络,提取文本实例在不同尺度上更具判别力的特征表示;然后设计深度多尺度特征融合模块,将不同尺度的特征信息进行交互,自适应地学习不同尺度特征图对应的权重矩阵,用于融合文本实例在不同尺度特征图上具有判别力的特征信息,从而获得更具鲁棒性的多尺度融合特征图;最后利用自适应的二值化后处理模块生成更加精确的文本区域边界框。为评估其有效性,大量实验在ICDAR2015,ICDAR2013和CTW1500数据集上进行验证,结果表明该方法相较于其他先进的检测方法取得了有竞争力的检测结果,展现出良好的鲁棒性和泛化能力。 展开更多
关键词 自然场景文本检测 注意力机制 多尺度特征融合 二值化 自适应
在线阅读 下载PDF
基于轻量级网络的自然场景下的文本检测 被引量:1
4
作者 孙婧婧 张青林 《电子测量技术》 2020年第8期101-107,共7页
由于自然场景中的文本的提取与理解具有重要的现实应用意义,如盲人导航,图片筛选等,针对传统文本检测步骤繁多、效率低下和深度学习复杂度高的问题,本文提出了一种基于轻量级网络的自然场景下的文本检测。该网络基于回归的思想使用全卷... 由于自然场景中的文本的提取与理解具有重要的现实应用意义,如盲人导航,图片筛选等,针对传统文本检测步骤繁多、效率低下和深度学习复杂度高的问题,本文提出了一种基于轻量级网络的自然场景下的文本检测。该网络基于回归的思想使用全卷积网络结构进行不同层次的特征的融合,快速且准确的定位出文本区域,一步输出预测框。网络采用U-net结构提取卷积特征和预测文本,可以准确定位图片中的小文本行,在分辨率低的图片,定位图片中的文本行方面,也有很好的效果。该方法使用非极大值抑制消除多余的文本框,可以用于不同语言,不同方向的文本定位。在数据集ICDAR2015取得了不错的效果。 展开更多
关键词 文本检测 自然场景 轻量级网络 特征融合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部