期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
面向鲁棒口语理解的声学组块混淆语言模型微调算法 被引量:2
1
作者 李荣军 郭秀焱 杨静远 《智能系统学报》 CSCD 北大核心 2023年第1期131-137,共7页
利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果。但是,当将其应用于口语语言理解(spoken language understanding,SLU)任务时,由于前端语音识... 利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果。但是,当将其应用于口语语言理解(spoken language understanding,SLU)任务时,由于前端语音识别(automatic speech recognition,ASR)的错误,会导致SLU精度的下降。因此,本文研究如何增强PLM提高SLU模型对ASR错误的鲁棒性。具体来讲,通过比较ASR识别结果和人工转录结果之间的差异,识别出连读和删除的文本组块,通过设置新的预训练任务微调PLM,使发音相近的文本组块产生类似的特征嵌入表示,以达到减轻ASR错误对PLM影响的目的。通过在3个基准数据集上的实验表明,所提出的方法相比之前的方法,精度有较大提升,验证方法的有效性。 展开更多
关键词 自然语言理解 口语语言理解 意图识别 预训练语言模型 语音识别 鲁棒性 语言模型微调 深度学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部