-
题名融合预训练语言模型的成语完形填空算法
被引量:3
- 1
-
-
作者
琚生根
黄方怡
孙界平
-
机构
四川大学计算机学院
-
出处
《软件学报》
EI
CSCD
北大核心
2022年第10期3793-3805,共13页
-
基金
国家自然科学基金(61972270)
四川省新一代人工智能重大专项(2018GZDZX0039)
四川省重点研发项目(2019YFG0521)。
-
文摘
根据上下文语境选择恰当的成语,是自然语言处理领域的重要任务之一.现有的研究将成语完型填空任务看成是文本匹配问题,虽然预训练语言模型能够在文本匹配研究上取得较高的准确率,但也存在明显的缺陷:一方面,预训练语言模型作为特征提取器时,会丢失句子间相互信息;另一方面,预训练语言模型作为文本匹配器时,计算开销大,训练时间和推理时间较长.另外,上下文与候选成语之间的匹配是不对称的,会影响预训练语言模型发挥匹配器的效果.为了解决上述两个问题,利用参数共享的思想,提出了TALBERT-blank.TALBERTblank是将成语选择从基于上下文的不对称匹配过程转换为填空与候选答案之间的对称匹配过程,将预训练语言模型同时作为特征提取器和文本匹配器,并对句向量作潜在语义匹配.这样可以减少参数量和内存的消耗,在保持准确度的情况下,提高了训练和推理速度,达到了轻量高效的效果.在CHID数据集上的实验结果表明:作为匹配器,TALBERT-blank相较于ALBERT,在保证准确率的情况下,更大限度地精简了模型的结构,计算时间进一步缩短54.35%.
-
关键词
成语完形填空
文本匹配
深度学习
预训练语言模型
-
Keywords
Chinese idiom cloze task
text matching
deep learning
pre-trained language model
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
-