期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于掩盖模型非线性变换的相关性分析
1
作者 王怡影 章承诺 +2 位作者 徐静静 范程华 柴豆豆 《蚌埠学院学报》 2020年第5期53-56,共4页
依据人眼掩盖效应,给出了一种基于掩盖效应的图像质量评价模型。将该模型的评价值经过非线性变换后,与图像数据库的平均主观得分结合,计算出相关性系数。相关性系数越接近1,与主观评价的一致性就越高。从实验数据中可以看出,不同的非线... 依据人眼掩盖效应,给出了一种基于掩盖效应的图像质量评价模型。将该模型的评价值经过非线性变换后,与图像数据库的平均主观得分结合,计算出相关性系数。相关性系数越接近1,与主观评价的一致性就越高。从实验数据中可以看出,不同的非线性变换得到的相关性系数不同。给出的变换方式有助于对掩盖模型进行改进,提高与标准数据库平均主观得分的吻合度。 展开更多
关键词 图像质量评价 掩盖模型 非线性变换 相关性分析
在线阅读 下载PDF
结合提示学习和自注意力的预训练语言模型
2
作者 汪辉 于瓅 《佳木斯大学学报(自然科学版)》 CAS 2023年第2期19-22,共4页
在自然语言处理领域的下游任务中,具有代表性的双向Transformer编码表示的预训练模型(Bidirectional Encoder Representations from Transformers)BERT呈现出非常出色的性能。为了解决预训练模型的预训练阶段任务和下游任务不一致,利用... 在自然语言处理领域的下游任务中,具有代表性的双向Transformer编码表示的预训练模型(Bidirectional Encoder Representations from Transformers)BERT呈现出非常出色的性能。为了解决预训练模型的预训练阶段任务和下游任务不一致,利用提示学习的修改策略以及自注意力机制的方法,构建新的掩盖训练任务,在官方的中文BERT预训练模型的基础上再训练。这样不仅能运用到预训练任务获得的知识,而且可以针对性的对下游任务上进行提升,最终加强模型的抗干扰能力以及学习效率。研究结果表明:相较RoBERTa和BERT,在数据集THUCNews和TNEWS上这种模型能达更高的分数。 展开更多
关键词 自注意力机制 预训练语言模型 掩盖语言模型 文本分类
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部