期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于背景-前景组成式建模的电路板异常检测
1
作者 傅冰飞 陈同林 +3 位作者 许枫 朱麟 李斌 薛向阳 《计算机研究与发展》 北大核心 2025年第1期144-159,共16页
异常检测的目标是检测众多正常样本中的异常样本.在大数据时代,如何将异常检测应用于现实场景成为当下需要着重思考的问题之一.目前已有模型存在难以处理实际场景中遮挡、光照、色差等动态干扰,无法快速迁移应用场景等问题.基于此,提出... 异常检测的目标是检测众多正常样本中的异常样本.在大数据时代,如何将异常检测应用于现实场景成为当下需要着重思考的问题之一.目前已有模型存在难以处理实际场景中遮挡、光照、色差等动态干扰,无法快速迁移应用场景等问题.基于此,提出了一种基于背景-前景组成式建模的深度学习模型,用于检测电路板场景中的异常物体.首先通过特征提取网络将输入图像重构为不包含异常物体的干净背景图像,并通过跳层连接保留图像可能存在的动态干扰.得到重构背景后,通过空间变换网络提取到异常物体的位置信息,利用自编码器提取到异常物体外观、形状和存在的隐空间表示并重构出每个异常物体.将重构的异常物体和背景图像组合得到完整图像并通过对异常物体的存在表示给定阈值来实现异常检测.为了验证方法的有效性,从真实的电路板组装环境中收集数据,并模拟实际生产中标注有限的情景,从而创建用于分析的电路板异物数据集.此外,还在航道异物碎片数据集上进行实验验证.结果表明,提出的方法在该数据集上表现良好,能够检测出9个真实场景数据中的所有异常目标,漏检率低至0%,可以应用于现实世界的电路板组装场景. 展开更多
关键词 异常检测 合成数据集 组成式建模 生成式模型 多阶段训练
在线阅读 下载PDF
无监督的句法可控复述模型用于对抗样本生成 被引量:1
2
作者 杨二光 刘明童 +4 位作者 张玉洁 孟遥 胡长建 徐金安 陈钰枫 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第1期83-90,共8页
针对使用句法可控的复述生成模型生成对抗样本时模型性能受限于复述平行语料的领域和规模的问题,提出仅需要单语语料训练的无监督的句法可控复述生成模型,用以生成对抗样本。采用变分自编码方式学习模型,首先将句子和句法树分别映射为... 针对使用句法可控的复述生成模型生成对抗样本时模型性能受限于复述平行语料的领域和规模的问题,提出仅需要单语语料训练的无监督的句法可控复述生成模型,用以生成对抗样本。采用变分自编码方式学习模型,首先将句子和句法树分别映射为语义变量和句法变量,然后基于语义变量和句法变量重构原始句子。在重构过程中,模型可以在不使用任何平行语料的情况下学习生成句法变化的复述。在无监督复述生成和对抗样本生成任务中的实验结果表明,所提方法在无监督复述生成任务中取得最佳性能,在对抗样本生成任务中可以生成有效的对抗样本,用以改进神经自然语言处理(NLP)模型的鲁棒性和泛化能力。 展开更多
关键词 无监督学习 句法可控复述生成模型 对抗样本
在线阅读 下载PDF
联合自编码任务的多机制融合复述生成模型
3
作者 刘明童 张玉洁 +3 位作者 张姝 孟遥 徐金安 陈钰枫 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2020年第1期53-60,共8页
基于神经网络编码–解码框架的复述生成模型存在两方面的问题:1)生成的复述句中存在实体词不准确、未登录词和词汇重复生成;2)复述平行语料的有限规模限制了编码器的语义学习能力。针对第一个问题,本文提出在解码过程中融合注意力机制... 基于神经网络编码–解码框架的复述生成模型存在两方面的问题:1)生成的复述句中存在实体词不准确、未登录词和词汇重复生成;2)复述平行语料的有限规模限制了编码器的语义学习能力。针对第一个问题,本文提出在解码过程中融合注意力机制、复制机制和覆盖机制的多机制复述生成模型,利用复制机制从原句复制词语来解决实体词和未登录词生成问题;利用覆盖机制建模学习注意力机制的历史决策信息来规避词汇重复生成。针对第二个问题,基于多任务学习框架,提出在复述生成任务中联合自编码任务,两个任务共享一个编码器,同时利用平行复述语料和原句子数据,共同增强复述生成编码器的语义学习能力。在Quora复述数据集上的实验结果表明,提出的联合自编码的多机制融合复述生成模型有效地解决了复述生成的问题,并提高了复述句的生成质量。 展开更多
关键词 复述生成 自编码 多任务学习 多机制融合 注意力机制 复制机制 覆盖机制
在线阅读 下载PDF
基于Masked-Pointer的多轮对话重写模型 被引量:1
4
作者 杨双涛 符博 +1 位作者 于晨晨 胡长建 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第1期31-37,共7页
针对多轮会话中的Non-Sentential Utterances(NSUs)问题,结合当前在自然语言处理领域广泛使用的预训练语言模型,将Masked Language Model用于多轮会话NSUs的重写任务,提出Masked Rewriter Model。与基于Seq2Seq的重写模型相比,重写效果... 针对多轮会话中的Non-Sentential Utterances(NSUs)问题,结合当前在自然语言处理领域广泛使用的预训练语言模型,将Masked Language Model用于多轮会话NSUs的重写任务,提出Masked Rewriter Model。与基于Seq2Seq的重写模型相比,重写效果提升明显。根据NSUs重写任务特点,将Masked Language Model与Pointer Network相结合,提出基于Masked-Pointer Rewriter Model的多轮会话重写模型,利用指针网络,提升重写模型对上文信息的关注程度,在BERT Masked Rewriter模型的基础上进一步提升重写效果。 展开更多
关键词 人机交互 预训练语言模型 指针网络 会话重写
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部