期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
面向中文小样本命名实体识别的BERT优化方法
1
作者 杨三和 赖沛超 +3 位作者 傅仰耿 王一蕾 叶飞扬 张林 《小型微型计算机系统》 北大核心 2025年第3期602-611,共10页
为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于... 为解决中文小样本命名实体识别(NER)任务所面临的问题和挑战,提出了一种面向中文小样本NER的BERT优化方法,该方法包含两方面的优化:首先,针对训练样本数量不足限制了预训练语言模型BERT的语义感知能力的问题,提出了ProConBERT,一种基于提示学习与对比学习的BERT预训练策略.在提示学习阶段,设计掩码填充模板来训练BERT预测出每个标记对应的中文标签词.在对比学习阶段,利用引导模板训练BERT学习每个标记和标签词之间的相似性与差异性.其次,针对中文缺乏明确的词边界所带来的复杂性和挑战性,修改BERT模型的第一层Transformer结构,并设计了一种带有混合权重引导器的特征融合模块,将词典信息集成到BERT底层中.最后,实验结果验证了所提方法在中文小样本NER任务中的有效性与优越性.该方法结合BERT和条件随机场(CRF)结构,在4个采样的中文NER数据集上取得了最好的性能.特别是在Weibo数据集的3个小样本场景下,模型的F 1值分别达到了63.78%、66.27%、70.90%,与其他方法相比,平均F 1值分别提高了16.28%、14.30%、11.20%.此外,将ProConBERT应用到多个基于BERT的中文NER模型中能进一步提升实体识别的性能. 展开更多
关键词 中文小样本命名实体识别 提示学习 对比学习 预训练 特征融合 BERT模型
在线阅读 下载PDF
基于细粒度原型网络的小样本命名实体识别方法 被引量:2
2
作者 戚荣志 周俊宇 +1 位作者 李水艳 毛莺池 《软件学报》 EI CSCD 北大核心 2024年第10期4751-4765,共15页
原型网络直接应用于小样本命名实体识别(few-shot named entity recognition,FEW-NER)时存在以下问题:非实体之间不具有较强的语义关系,对实体和非实体都采用相同的方式构造原型将会造成非实体原型不能准确表示非实体的语义特征;仅使用... 原型网络直接应用于小样本命名实体识别(few-shot named entity recognition,FEW-NER)时存在以下问题:非实体之间不具有较强的语义关系,对实体和非实体都采用相同的方式构造原型将会造成非实体原型不能准确表示非实体的语义特征;仅使用平均实体向量表示作为原型的计算方式将难以捕捉语义特征相差较大的同类实体.针对上述问题,提出基于细粒度原型网络的小样本命名实体识别(FEW-NER based on fine-grained prototypical networks,FNFP)方法,有助于提高小样本命名实体识别的标注效果.首先,为不同的查询集样本构造不同的非实体原型,捕捉句子中关键的非实体语义特征,得到更为细粒度的原型,提升模型对非实体的识别效果;然后,设计一个不一致性度量模块以衡量同类实体之间的不一致性,对实体与非实体采用不同的度量函数,从而减小同类样本之间的特征表示,提升原型的特征表示能力;最后,引入维特比解码器捕捉标签转换关系,优化最终的标注序列.实验结果表明,采用基于细粒度原型网络的小样本命名实体识别方法,在大规模小样本命名实体识别数据集FEW-NERD上,较基线方法获得提升;同时在跨领域数据集上验证所提方法在不同领域场景下的泛化能力. 展开更多
关键词 小样本命名实体识别 细粒度原型网络 小样本学习 特征表示
在线阅读 下载PDF
面向小样本命名实体识别的实体语义优先提示学习方法 被引量:1
3
作者 何丽 曾骁勇 +2 位作者 刘杰 段建勇 王昊 《计算机应用研究》 CSCD 北大核心 2024年第12期3622-3627,共6页
近些年来,提示学习在小样本命名实体识别任务上得到了广泛应用。然而,命名实体识别仍然是一个令牌级的标记任务,在通过提示模板调动预训练知识时,很容易忽略新实体类型的语义信息。为此,提出了一个语义优先的提示学习方法。具体来说,首... 近些年来,提示学习在小样本命名实体识别任务上得到了广泛应用。然而,命名实体识别仍然是一个令牌级的标记任务,在通过提示模板调动预训练知识时,很容易忽略新实体类型的语义信息。为此,提出了一个语义优先的提示学习方法。具体来说,首先检测少量示例中实体类型蕴涵的语义信息,然后将实体语义信息和询问实体位置的提示模板输入模型中,利用模型中的非自回归解码器并行预测来提取实体;此外,为了确保语义信息与实体类型的关联性,使用对比学习的方法来训练一个分类器,以去除与实体类型无关的语义信息;最后在两个常用的公共基准数据集上评估了所提方法,实验结果证明了该方法的有效性。 展开更多
关键词 小样本命名实体识别 提示学习 语义信息 对比学习
在线阅读 下载PDF
面向小样本命名实体识别的标签语义增强原型网络
4
作者 黄伟光 宁佐廷 +1 位作者 段俊文 安莹 《中文信息学报》 CSCD 北大核心 2024年第10期95-105,共11页
小样本命名实体识别任务旨在通过有限数量的标注样本来识别并分类文本中的实体。目前,基于两阶段的小样本命名实体识别方法存在泛化能力差和原型类别混淆等问题。为了解决这些问题,该文提出了一种利用标签语义增强实体表示的两阶段方法... 小样本命名实体识别任务旨在通过有限数量的标注样本来识别并分类文本中的实体。目前,基于两阶段的小样本命名实体识别方法存在泛化能力差和原型类别混淆等问题。为了解决这些问题,该文提出了一种利用标签语义增强实体表示的两阶段方法。具体来说,该文使用蕴含语义信息的标签名称增强实体表示,并将其应用于跨度检测和实体分类模型。在跨度检测模型中,采用注意力机制将标签语义融入到文本表示,以减少跨度检测模型泛化能力不足的问题。同时,利用增强后的实体表示构建类别原型,使得原型可以获得更丰富的特征,从而降低了原型间的混淆。实验结果表明,该文方法可以充分利用标签语义信息,并在多个基准数据集上取得了良好的性能表现。 展开更多
关键词 小样本命名实体识别 原型网络 标签语义
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部