期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
基于掩码语言模型的中文BERT攻击方法 被引量:3
1
作者 张云婷 叶麟 +2 位作者 唐浩林 张宏莉 李尚 《软件学报》 EI CSCD 北大核心 2024年第7期3392-3409,共18页
对抗文本是一种能够使深度学习分类器作出错误判断的恶意样本,敌手通过向原始文本中加入人类难以察觉的微小扰动制作出能欺骗目标模型的对抗文本.研究对抗文本生成方法,能对深度神经网络的鲁棒性进行评价,并助力于模型后续的鲁棒性提升... 对抗文本是一种能够使深度学习分类器作出错误判断的恶意样本,敌手通过向原始文本中加入人类难以察觉的微小扰动制作出能欺骗目标模型的对抗文本.研究对抗文本生成方法,能对深度神经网络的鲁棒性进行评价,并助力于模型后续的鲁棒性提升工作.当前针对中文文本设计的对抗文本生成方法中,很少有方法将鲁棒性较强的中文BERT模型作为目标模型进行攻击.面向中文文本分类任务,提出一种针对中文BERT的攻击方法Chinese BERT Tricker.该方法使用一种汉字级词语重要性打分方法——重要汉字定位法;同时基于掩码语言模型设计一种包含两类策略的适用于中文的词语级扰动方法实现对重要词语的替换.实验表明,针对文本分类任务,所提方法在两个真实数据集上均能使中文BERT模型的分类准确率大幅下降至40%以下,且其多种攻击性能明显强于其他基线方法. 展开更多
关键词 深度神经网络 对抗样本 文本对抗攻击 中文BERT 掩码语言模型
在线阅读 下载PDF
基于注意力掩码语言模型的隐式篇章关系识别 被引量:1
2
作者 窦祖俊 洪宇 +1 位作者 李晓 周国栋 《中文信息学报》 CSCD 北大核心 2022年第10期17-26,共10页
隐式篇章关系识别是在缺少显式连接词的条件下,自动判定论元之间的语义关系。其挑战性在于现有训练数据的规模较小,其蕴含的语义多样性也相对有限。针对上述问题,该文利用掩码语言模型架构建立篇章关系分类模型。其动因包括:①掩码语言... 隐式篇章关系识别是在缺少显式连接词的条件下,自动判定论元之间的语义关系。其挑战性在于现有训练数据的规模较小,其蕴含的语义多样性也相对有限。针对上述问题,该文利用掩码语言模型架构建立篇章关系分类模型。其动因包括:①掩码语言模型在自监督学习过程中具备局部的语言生成能力,即在理解上下文语义的基础上“重构掩码区域语义表示”的能力;②掩码重构形成了数据增强(潜在的自动数据扩展)的效果,有助于提高篇章关系分类模型的鲁棒性。特别地,该文提出一种基于交互注意力的掩码语言模型,该方法计算论元之间的交互注意力矩阵,并依赖交互注意力动态选择论元之间高关联性的关键词项进行遮蔽、掩码重构,从而形成更有针对性的数据增强(非关键信息的数据增强对关系分类影响不大)。该文利用宾州篇章树库语料进行实验。实验结果表明,相较于基准系统,我们提出的方法的F 1值在四大类关系(对比关系、偶然性关系、扩展关系和时序关系)上分别提高了3.21%、6.46%、2.74%和6.56%。 展开更多
关键词 隐式篇章关系 交互式注意力 掩码语言模型
在线阅读 下载PDF
掩码语言增强表示的对比学习微调和应用 被引量:2
3
作者 张德驰 万卫兵 《计算机工程与应用》 CSCD 北大核心 2024年第17期129-138,共10页
在基于Transformer的语言模型中自注意力网络扮演了重要的角色,其中的全连接结构能够以并行方式捕捉序列中非连续的依赖关系。但是,全连接的自注意力网络很容易过拟合到虚假关联信息上,比如词与词、词与预测目标之间的虚假关联。这种过... 在基于Transformer的语言模型中自注意力网络扮演了重要的角色,其中的全连接结构能够以并行方式捕捉序列中非连续的依赖关系。但是,全连接的自注意力网络很容易过拟合到虚假关联信息上,比如词与词、词与预测目标之间的虚假关联。这种过拟合问题限制了语言模型对领域外或分布外数据的泛化能力。为了提高Transformer语言模型对虚假关联的鲁棒性以及泛化能力,提出掩码语言增强表示的对比学习微调框架(fine-tuning framework via mask language model enhanced representations based contrastive learning,MCL-FT)。具体而言,文本序列和其随机掩码后的序列送入到一个孪生网络,结合对比学习目标和下游任务目标对模型进行参数学习。其中,每一个孪生网络由预训练语言模型和任务分类器组成。所以,该微调框架更加符合掩码语言模型预训练学习方式,能够在下游任务中保持预训练知识的泛化能力。在MNLI、FEVER和QQP数据集以及它们的挑战数据集上与最新的基线模型进行了对比,包括大语言模型ChatGPT、GPT4、LLaMA,实验结果验证了提出模型在保证分布内性能的同时有效提高了分布外的性能。在ATIS和Snips数据集上的实验结果证明,该模型在常见自然语言处理任务中也有显著的效果。 展开更多
关键词 TRANSFORMER 掩码语言模型 对比学习 微调 虚假关联 泛化能力
在线阅读 下载PDF
面向汉越跨语言事件检索的事件预训练方法
4
作者 吴少扬 余正涛 +3 位作者 黄于欣 朱恩昌 高盛祥 邓同杰 《中文信息学报》 CSCD 北大核心 2024年第4期78-85,共8页
汉越跨语言事件检索是用汉语查询检索越南语事件新闻的任务。由于越南语属于典型的低资源语言,汉越跨语言事件检索缺乏大规模的标注数据,并且现有的跨语言预训练模型无法很好地表征文本中丰富的汉越对齐事件知识,不适用于该任务。因此,... 汉越跨语言事件检索是用汉语查询检索越南语事件新闻的任务。由于越南语属于典型的低资源语言,汉越跨语言事件检索缺乏大规模的标注数据,并且现有的跨语言预训练模型无法很好地表征文本中丰富的汉越对齐事件知识,不适用于该任务。因此,为了将汉越双语对齐的事件知识融入到多语言预训练语言模型中,该文提出了两个预训练方法,即事件要素掩码预训练以及跨语言事件对比预训练。在该文构造的汉越跨语言事件检索数据集和公开跨语言问答数据集上进行了实验,比基线提升1%~3%MAP值,2%~4%NDCG值,证明了该文方法的有效性。 展开更多
关键词 事件预训练 语言事件检索 掩码语言模型 对比学习
在线阅读 下载PDF
双向自回归Transformer与快速傅里叶卷积增强的壁画修复 被引量:1
5
作者 陈永 张世龙 杜婉君 《湖南大学学报(自然科学版)》 北大核心 2025年第4期1-15,共15页
针对现有深度学习算法在壁画修复时,存在全局语义一致性约束不足及局部特征提取不充分,导致修复后的壁画易出现边界效应和细节模糊等问题,提出一种双向自回归Transformer与快速傅里叶卷积增强的壁画修复方法.首先,设计基于Transformer... 针对现有深度学习算法在壁画修复时,存在全局语义一致性约束不足及局部特征提取不充分,导致修复后的壁画易出现边界效应和细节模糊等问题,提出一种双向自回归Transformer与快速傅里叶卷积增强的壁画修复方法.首先,设计基于Transformer结构的全局语义特征修复模块,利用双向自回归机制与掩码语言模型(masked language modeling,MLM),提出改进的多头注意力全局语义壁画修复模块,提高对全局语义特征的修复能力.然后,构建了由门控卷积和残差模块组成的全局语义增强模块,增强全局语义特征一致性约束.最后,设计局部细节修复模块,采用大核注意力机制(large kernel attention,LKA)与快速傅里叶卷积提高细节特征的捕获能力,同时减少局部细节信息的丢失,提升修复壁画局部和整体特征的一致性.通过对敦煌壁画数字化修复实验,结果表明,所提算法修复性能更优,客观评价指标均优于比较算法. 展开更多
关键词 壁画修复 双向自回归Transformer 掩码语言模型 快速傅里叶卷积 语义增强
在线阅读 下载PDF
基于提示标签协同的关系抽取方法
6
作者 冉哲宇 陈艳平 +2 位作者 王凯 黄瑞章 秦永彬 《计算机科学与探索》 北大核心 2025年第6期1580-1587,共8页
提示学习可以将下游任务转换为预训练任务形式的掩码预测任务。然而,将提示学习应用于关系抽取任务时,由于掩码的输出是标签类别的语义向量表示,容易导致生成空间过大而对掩码语义解析度不足。针对这一问题,提出了一种基于提示标签协同... 提示学习可以将下游任务转换为预训练任务形式的掩码预测任务。然而,将提示学习应用于关系抽取任务时,由于掩码的输出是标签类别的语义向量表示,容易导致生成空间过大而对掩码语义解析度不足。针对这一问题,提出了一种基于提示标签协同的关系抽取方法。为每个关系类构建两组同义词标签。其中一组用于学习掩码表示,另一组用于强化标签语义。在掩码语言模型中引入约束层以对掩码表示进行双向约束。使得两组同义词标签间隐含差异的语义和先验知识能够融入到关系表示中。由于同义词标签是基于知识初始化的,它们在潜在变量空间中可能不是最优的,应该与周围的上下文相关联。因此,在训练过程中,同义词标签表示会与掩码共同参与优化。提出的方法能够提高模型对标签语义的认知能力,同时优化掩码表示,从而提升模型对掩码的语义解析能力。实验结果表明,该方法在标准和小样本设置的三个公共数据集上均明显优于对比方法,证明了该方法的有效性。 展开更多
关键词 提示学习 提示标签协同 掩码语言模型
在线阅读 下载PDF
面向属性级情感三元组抽取的情感融合数据增强方法
7
作者 杨帆 张冕 +1 位作者 周夏冰 张民 《中文信息学报》 CSCD 北大核心 2024年第11期114-122,共9页
针对属性级情感三元组抽取任务数据稀缺的问题,该文提出一种融合实例相关情感信息的数据增强方法。首先,以机器阅读理解的形式训练情感分类器,用于获取意见词对属性词所表达情感的稠密向量表示;其次,在情感稠密向量表示的指导下,以掩码... 针对属性级情感三元组抽取任务数据稀缺的问题,该文提出一种融合实例相关情感信息的数据增强方法。首先,以机器阅读理解的形式训练情感分类器,用于获取意见词对属性词所表达情感的稠密向量表示;其次,在情感稠密向量表示的指导下,以掩码语言模型损失为目标,微调预训练语言模型;最后,遮蔽输入文本中的意见词,并使用微调后的预训练语言模型生成新样本。该方法所融入的情感信息结合了每条样本的深层语义,可以有效保证新样本与原数据情感倾向的一致性。在14res、15res和16res三个SemEval数据集上的实验结果表明,与其他相关数据增强方法相比,该方法得到的数据质量更高,并进一步提高了属性级情感三元组抽取模型的性能。 展开更多
关键词 数据增强 属性级情感三元组抽取 掩码语言模型
在线阅读 下载PDF
基于BERT和多特征融合嵌入的中文拼写检查 被引量:1
8
作者 刘哲 殷成凤 李天瑞 《计算机科学》 CSCD 北大核心 2023年第3期282-290,共9页
由于汉字的多样性和中文语义表达的复杂性,中文拼写检查仍是一项重要且富有挑战性的任务。现有的解决方法通常存在无法深入挖掘文本语义的问题,且在利用汉字独特的相似性特征时往往通过预先建立的外部资源或是启发式规则来学习错误字符... 由于汉字的多样性和中文语义表达的复杂性,中文拼写检查仍是一项重要且富有挑战性的任务。现有的解决方法通常存在无法深入挖掘文本语义的问题,且在利用汉字独特的相似性特征时往往通过预先建立的外部资源或是启发式规则来学习错误字符与正确字符之间的映射关系。文中提出了一种融合汉字多特征嵌入的端到端中文拼写检查算法模型BFMBERT(BiGRU-Fusion Mask BERT)。该模型首先利用结合混淆集的预训练任务使BERT学习中文拼写错误知识,然后使用双向GRU网络捕获文本中每个字符错误的概率,利用该概率计算汉字语义、拼音和字形特征的融合嵌入表示,最后将这种融合嵌入输入到BERT中的掩码语言模型(Mask Language Model,MLM)以预测正确字符。在SIGHAN 2015基准数据集上对BFMBERT进行了评测,取得了82.2的F1值,其性能优于其他基线模型。 展开更多
关键词 中文拼写检查 BERT 文本校对 掩码语言模型 字词错误校对 预训练模型
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部