当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利...当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利于提取多粒度的语义信息.针对上述问题,本文提出了融合引导注意力的中文长文本摘要生成(Chinese Long text Summarization with Guided Attention,CLSGA)方法.首先,针对中文长文本摘要生成任务,利用抽取模型灵活抽取长文本中的核心词汇和语句,构建引导文本,用以指导生成模型在编码过程中将注意力集中于更重要的信息.其次,设计中文长文本词表,将文本结构长度由字统计改变至词组统计,有利于提取更加丰富的多粒度特征,进一步引入层次位置分解编码,高效扩展长文本的位置编码,加速网络收敛.最后,以局部注意力机制为骨干,同时结合引导注意力机制,以此有效捕捉长文本跨度下的重要信息,提高摘要生成的精度.在四个不同长度的公共中文摘要数据集LCSTS(大规模中文短文本摘要数据集)、CNewSum(大规模中国新闻摘要数据集)、NLPCC2017和SFZY2020上的实验结果表明:本文方法对于长文本摘要生成具有显著优势,能够有效提高ROUGE-1、ROUGE-2、ROUGE-L值.展开更多
针对肝脏肿瘤分割面临的病灶形状、大小和位置差异明显等问题,文章提出了一种基于空间通道注意力的三维肝脏肿瘤分割方法。在3D U-Net的基础上融合了Transformer,提出成对全局和局部注意力PGLA(Paired Global Local Attention)模块替代T...针对肝脏肿瘤分割面临的病灶形状、大小和位置差异明显等问题,文章提出了一种基于空间通道注意力的三维肝脏肿瘤分割方法。在3D U-Net的基础上融合了Transformer,提出成对全局和局部注意力PGLA(Paired Global Local Attention)模块替代Transformer中的传统注意力模块,并在尺度变换前引入CBAM(Convolutional Block Attention Module)模块。在肝脏肿瘤分割挑战赛数据集上的实验结果显示该方法在肿瘤分割的Dice系数上达到了69.18%,这些成绩均优于当前流行的模型,这证明了该方法在提高肝脏肿瘤分割精度方面的有效性。展开更多
文摘当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利于提取多粒度的语义信息.针对上述问题,本文提出了融合引导注意力的中文长文本摘要生成(Chinese Long text Summarization with Guided Attention,CLSGA)方法.首先,针对中文长文本摘要生成任务,利用抽取模型灵活抽取长文本中的核心词汇和语句,构建引导文本,用以指导生成模型在编码过程中将注意力集中于更重要的信息.其次,设计中文长文本词表,将文本结构长度由字统计改变至词组统计,有利于提取更加丰富的多粒度特征,进一步引入层次位置分解编码,高效扩展长文本的位置编码,加速网络收敛.最后,以局部注意力机制为骨干,同时结合引导注意力机制,以此有效捕捉长文本跨度下的重要信息,提高摘要生成的精度.在四个不同长度的公共中文摘要数据集LCSTS(大规模中文短文本摘要数据集)、CNewSum(大规模中国新闻摘要数据集)、NLPCC2017和SFZY2020上的实验结果表明:本文方法对于长文本摘要生成具有显著优势,能够有效提高ROUGE-1、ROUGE-2、ROUGE-L值.
文摘针对肝脏肿瘤分割面临的病灶形状、大小和位置差异明显等问题,文章提出了一种基于空间通道注意力的三维肝脏肿瘤分割方法。在3D U-Net的基础上融合了Transformer,提出成对全局和局部注意力PGLA(Paired Global Local Attention)模块替代Transformer中的传统注意力模块,并在尺度变换前引入CBAM(Convolutional Block Attention Module)模块。在肝脏肿瘤分割挑战赛数据集上的实验结果显示该方法在肿瘤分割的Dice系数上达到了69.18%,这些成绩均优于当前流行的模型,这证明了该方法在提高肝脏肿瘤分割精度方面的有效性。