任务的目的是识别对话中的关键信息并生成一段简短的文本.由于对话具有非正式化和动态交互性质,导致对话文本信息稀疏、关键信息分散.然而,现有模型未能实现对对话中主题特征信息的有效挖掘,缺乏对核心话语的识别,忽略了附加特征融合过...任务的目的是识别对话中的关键信息并生成一段简短的文本.由于对话具有非正式化和动态交互性质,导致对话文本信息稀疏、关键信息分散.然而,现有模型未能实现对对话中主题特征信息的有效挖掘,缺乏对核心话语的识别,忽略了附加特征融合过程中的噪声问题.针对上述问题,本文提出一种结合主题挖掘与话语中心性的对话摘要模型DS-TMUC(Dialogue Summarization model combining Topic Mining and Utterance Centrality).首先,提出一种主题特征提取模块,该模块引入嵌入式主题模型来有效地挖掘对话中可解释的潜在主题信息,为抽象对话摘要过程提供更丰富的语义信息.其次,提出一种特征动态融合模块,设计特征感知网络为融合特征去除噪声以增强特征的表征能力,利用多头注意力捕捉特征之间的语义关联性,并且使用门控机制进行过滤融合,从而增强特征之间的有效融合.再次,提出一种话语赋权模块,设计无监督聚类方法计算话语中心性权重为话语赋权,通过引导模型选择核心话语,进而提高模型对对话上下文建模的有效性.在SAMSum和DialogSum数据集上的实验结果表明,DS-TMUC模型的总体性能优于对比模型.展开更多
文本无关的说话人确认系统使用的测试语音时长越短效果越差。针对这种情况,提出增强声学特征的方法。使用基于seq2seq(Sequence to Sequence)的生成模型将短时声学特征生成更长的特征,其中,编码器用于提取深层特征,解码器输出声学特征,...文本无关的说话人确认系统使用的测试语音时长越短效果越差。针对这种情况,提出增强声学特征的方法。使用基于seq2seq(Sequence to Sequence)的生成模型将短时声学特征生成更长的特征,其中,编码器用于提取深层特征,解码器输出声学特征,使用注意力机制来获取序列之间的关系。在训练时加入余弦距离损失来提升生成模型的泛化性能,将训练好的说话人确认模型作为生成模型训练架构的组件。实验结果表明,在1~3 s语音时长下,采用该模型后等错误率平均降低7.78%。展开更多
文摘任务的目的是识别对话中的关键信息并生成一段简短的文本.由于对话具有非正式化和动态交互性质,导致对话文本信息稀疏、关键信息分散.然而,现有模型未能实现对对话中主题特征信息的有效挖掘,缺乏对核心话语的识别,忽略了附加特征融合过程中的噪声问题.针对上述问题,本文提出一种结合主题挖掘与话语中心性的对话摘要模型DS-TMUC(Dialogue Summarization model combining Topic Mining and Utterance Centrality).首先,提出一种主题特征提取模块,该模块引入嵌入式主题模型来有效地挖掘对话中可解释的潜在主题信息,为抽象对话摘要过程提供更丰富的语义信息.其次,提出一种特征动态融合模块,设计特征感知网络为融合特征去除噪声以增强特征的表征能力,利用多头注意力捕捉特征之间的语义关联性,并且使用门控机制进行过滤融合,从而增强特征之间的有效融合.再次,提出一种话语赋权模块,设计无监督聚类方法计算话语中心性权重为话语赋权,通过引导模型选择核心话语,进而提高模型对对话上下文建模的有效性.在SAMSum和DialogSum数据集上的实验结果表明,DS-TMUC模型的总体性能优于对比模型.
文摘文本无关的说话人确认系统使用的测试语音时长越短效果越差。针对这种情况,提出增强声学特征的方法。使用基于seq2seq(Sequence to Sequence)的生成模型将短时声学特征生成更长的特征,其中,编码器用于提取深层特征,解码器输出声学特征,使用注意力机制来获取序列之间的关系。在训练时加入余弦距离损失来提升生成模型的泛化性能,将训练好的说话人确认模型作为生成模型训练架构的组件。实验结果表明,在1~3 s语音时长下,采用该模型后等错误率平均降低7.78%。