期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于Transformer的多编码器端到端语音识别 被引量:2
1
作者 庞江飞 孙占全 《电子科技》 2024年第4期1-7,共7页
当前广泛使用的Transformer模型具有良好的全局依赖关系捕捉能力,但其在浅层时容易忽略局部特征信息。针对该问题,文中提出了一种使用多个编码器来改善语音特征信息提取能力的方法。通过附加一个额外的卷积编码器分支来强化对局部特征... 当前广泛使用的Transformer模型具有良好的全局依赖关系捕捉能力,但其在浅层时容易忽略局部特征信息。针对该问题,文中提出了一种使用多个编码器来改善语音特征信息提取能力的方法。通过附加一个额外的卷积编码器分支来强化对局部特征信息的捕捉,弥补浅层Transformer对局部特征信息的忽视,有效实现音频特征序列全局和局部依赖关系的融合,即提出了基于Transformer的多编码器模型。在开源中文普通话数据集Aishell-1上的实验表明,在没有外部语言模型的情况下,相比于Transformer模型,基于Transformer的多编码器模型的字符错误率降低了4.00%。在内部非公开的上海话方言数据集上,文中所提模型的性能提升更加明显,其字符错误率从19.92%降低至10.31%,降低了48.24%。 展开更多
关键词 TRANSFORMER 语音识别 端到端 深度神经网络 多编码器 多头注意力 特征融合 卷积分支网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部