期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于边缘熵和局部FT分布的超声图像分割模型 被引量:4
1
作者 崔文超 徐德伟 +2 位作者 孙水发 潘志红 王习东 《图学学报》 CSCD 北大核心 2022年第2期263-272,共10页
由于采用高斯和瑞利分布描述超声图像均存在较大偏差,且分割过程缺乏超声图像边缘信息引导,致使其相应的局部高斯分布拟合(LGDF)模型和局部瑞利分布拟合(LRDF)模型对超声图像分割性能不理想。针对上述问题,提出了一种边缘熵加权的局部Fi... 由于采用高斯和瑞利分布描述超声图像均存在较大偏差,且分割过程缺乏超声图像边缘信息引导,致使其相应的局部高斯分布拟合(LGDF)模型和局部瑞利分布拟合(LRDF)模型对超声图像分割性能不理想。针对上述问题,提出了一种边缘熵加权的局部Fisher-Tippett(FT)分布拟合模型。该模型根据超声图像中目标和背景在局部区域满足不同的FT分布,利用最大后验概率(MAP)准则导出超声图像分割的最小化能量函数。该能量函数的求解采用水平集方法,且通过在长度正则化项中引入边缘熵构造加权函数,引导活动轮廓更好地捕获分割目标的弱边缘。通过大量真实超声图像实验验证了提出模型在局部FT分布拟合和边缘熵引入2方面的改进均能有效提升分割性能,且在定性和定量对比评价上均优于现有的多种超声图像分割方法。 展开更多
关键词 超声图像 边缘熵 Fisher-Tippett分布 活动轮廓 水平集方法
在线阅读 下载PDF
基于强化学习的对抗预训练语言建模方法 被引量:1
2
作者 颜俊琦 孙水发 +2 位作者 吴义熔 裴伟 董方敏 《中文信息学报》 CSCD 北大核心 2022年第4期20-28,共9页
在大规模无监督语料上的BERT、XLNet等预训练语言模型,通常采用基于交叉熵损失函数的语言建模任务进行训练。模型的评价标准则采用困惑度或者模型在其他下游自然语言处理任务中的性能指标,存在损失函数和评测指标不匹配等问题。为解决... 在大规模无监督语料上的BERT、XLNet等预训练语言模型,通常采用基于交叉熵损失函数的语言建模任务进行训练。模型的评价标准则采用困惑度或者模型在其他下游自然语言处理任务中的性能指标,存在损失函数和评测指标不匹配等问题。为解决这些问题,该文提出一种结合强化学习的对抗预训练语言模型RL-XLNet(Reinforcement Learning-XLNet)。RL-XLNet采用对抗训练方式训练一个生成器,基于上下文预测选定词,并训练一个判别器判断生成器预测的词是否正确。通过对抗网络生成器和判别器的相互促进作用,强化生成器对语义的理解,提高模型的学习能力。由于在文本生成过程中存在采样过程,导致最终的损失无法直接进行回传,故提出采用强化学习的方式对生成器进行训练。基于通用语言理解评估基准(GLUE Benchmark)和斯坦福问答任务(SQuAD 1.1)的实验,结果表明,与现有BERT、XLNet方法相比,RL-XLNet模型在多项任务中的性能上表现出较明显的优势:在GLUE的六个任务中排名第1,一个任务排名第2,一个任务排名第3。在SQuAD 1.1任务中F 1值排名第1。考虑到运算资源有限,基于小语料集的模型性能也达到了领域先进水平。 展开更多
关键词 自然语言处理 预训练 语言模型 强化学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部