期刊文献+
共找到22篇文章
< 1 2 >
每页显示 20 50 100
问答式林业预训练语言模型ForestBERT 被引量:1
1
作者 谭晶维 张怀清 +2 位作者 刘洋 杨杰 郑东萍 《林业科学》 EI CAS CSCD 北大核心 2024年第9期99-110,共12页
【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策... 【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策管理提供智能化信息服务。【方法】首先,基于网络爬虫技术构建包含术语、法律法规和文献3个主题的林业语料库,使用该语料库对通用领域预训练语言模型BERT进行继续预训练,再通过掩码语言模型和下一句预测这2个任务进行自监督学习,使BERT能够有效地学习林业语义信息,得到具有林业文本通用特征的预训练语言模型ForestBERT。然后,对预训练语言模型mT5进行微调,实现样本的自动标注,通过人工校正后,构建包含3个主题共2280个样本的林业抽取式问答数据集。基于该数据集对BERT、RoBERTa、MacBERT、PERT、ELECTRA、LERT 6个通用领域的中文预训练语言模型以及本研究构建的ForestBERT进行训练和验证,以明确ForestBERT的优势。为探究不同主题对模型性能的影响,分别基于林业术语、林业法律法规、林业文献3个主题数据集对所有模型进行微调。将ForestBERT与BERT在林业文献中的问答结果进行可视化比较,以更直观展现ForestBERT的优势。【结果】ForestBERT在林业领域的抽取式问答任务中整体表现优于其他6个对比模型,与基础模型BERT相比,精确匹配(EM)分数和F1分数分别提升1.6%和1.72%,在另外5个模型的平均性能上也均提升0.96%。在各个模型最优划分比例下,ForestBERT在EM上分别优于BERT和其他5个模型2.12%和1.2%,在F1上分别优于1.88%和1.26%。此外,ForestBERT在3个林业主题上也均表现优异,术语、法律法规、文献任务的评估分数分别比其他6个模型平均提升3.06%、1.73%、2.76%。在所有模型中,术语任务表现最佳,F1的平均值达到87.63%,表现较差的法律法规也达到82.32%。在文献抽取式问答任务中,ForestBERT相比BERT可提供更准确、全面的答案。【结论】采用继续预训练的方式增强通用领域预训练语言模型的林业专业知识,可有效提升模型在林业抽取式问答任务中的表现,为林业文本和其他领域的文本处理和应用提供一种新思路。 展开更多
关键词 林业文本 bert 预训练语言模型 特定领域预训练 抽取式问答任务 自然语言处理
在线阅读 下载PDF
大语言模型驱动的空战自卫干扰策略训练优化
2
作者 彭皓杰 张文宇 +1 位作者 陈锐海 张启悦 《探测与控制学报》 北大核心 2025年第2期71-81,共11页
随着大模型近几年在各行业中的应用,其对复杂任务分解和有效提高工作效率的能力已受到广泛认可。将大语言模型应用在机载电子战干扰策略训练,利用现有大模型中已经具备的行业通识性知识,通过领域知识的输入对大模型进行参数微调和预训... 随着大模型近几年在各行业中的应用,其对复杂任务分解和有效提高工作效率的能力已受到广泛认可。将大语言模型应用在机载电子战干扰策略训练,利用现有大模型中已经具备的行业通识性知识,通过领域知识的输入对大模型进行参数微调和预训练。根据任务类型将大模型和强化学习智能体分为顶层和底层结构进行长短周期决策。大模型担任顶层长周期决策任务,根据总结链和思维链输出指令,作为强化学习智能体状态量输入,强化学习智能体则作为短周期决策,执行连续动作序列。使用动作掩码机制和混合奖励机制对智能体训练算法进行优化,动作掩码机制抑制了无用动作选择概率,混合奖励机制约束了智能体动作策略减少了无效探索,这些方法有效降低了训练所需时间提高了效率。通过仿真验证,以LLaMA2作为基座大模型分别对DQN算法、PPO算法和SAC算法执行干扰策略回报分数在原有基础上分别提升了27.9%、25.82%和31.48%。 展开更多
关键词 语言模型 电子战 干扰策略 长短周期 混合奖励 动作掩码 强化学习
在线阅读 下载PDF
基于大语言模型命名实体识别的AI智能问答优化
3
作者 施志雄 段该甲 +1 位作者 马龙轩 吴婕 《邮电设计技术》 2025年第3期80-84,共5页
为优化AI问答效果,提出基于大语言模型命名实体识别的优化方法。首先,通过在多种分割方式中选取最优方案,结合词语划分概率判断结果,对语料库文本进行分词。其次,在预训练的BERT模型顶部添加线性层,并通过标注数据对预测实体类别进行微... 为优化AI问答效果,提出基于大语言模型命名实体识别的优化方法。首先,通过在多种分割方式中选取最优方案,结合词语划分概率判断结果,对语料库文本进行分词。其次,在预训练的BERT模型顶部添加线性层,并通过标注数据对预测实体类别进行微调,将预测的同类标签词组合得到命名实体。最后,通过上下文构建整合用户输入与识别结果,将整合结果输入模型生成回答,并结合用户反馈优化输出。结果表明,所提方法生成结果与参考文本之间的语义相似度较高,具备较为理想的问答效果。 展开更多
关键词 语言模型 bert 命名实体识别 智能问答 分词
在线阅读 下载PDF
基于BERT模型的源代码漏洞检测技术研究
4
作者 罗乐琦 张艳硕 +2 位作者 王志强 文津 薛培阳 《信息安全研究》 CSCD 北大核心 2024年第4期294-301,共8页
源代码漏洞检测常使用代码指标、机器学习和深度学习等技术.但是这些技术存在无法保留源代码中的句法和语义信息、需要大量专家知识对漏洞特征进行定义等问题.为应对现有技术存在的问题,提出基于BERT(bidirectional encoder representat... 源代码漏洞检测常使用代码指标、机器学习和深度学习等技术.但是这些技术存在无法保留源代码中的句法和语义信息、需要大量专家知识对漏洞特征进行定义等问题.为应对现有技术存在的问题,提出基于BERT(bidirectional encoder representations from transformers)模型的源代码漏洞检测模型.该模型将需要检测的源代码分割为多个小样本,将每个小样本转换成近似自然语言的形式,通过BERT模型实现源代码中漏洞特征的自动提取,然后训练具有良好性能的漏洞分类器,实现Python语言多种类型漏洞的检测.该模型在不同类型的漏洞中实现了平均99.2%的准确率、97.2%的精确率、96.2%的召回率和96.7%的F1分数的检测水平,对比现有的漏洞检测方法有2%~14%的性能提升.实验结果表明,该模型是一种通用的、轻量级的、可扩展的漏洞检测方法. 展开更多
关键词 漏洞检测 深度学习 PYTHON语言 bert模型 自然语言处理
在线阅读 下载PDF
一种基于预训练模型掩码Aspect术语的数据增强方法
5
作者 石晓瑞 《信息技术与信息化》 2024年第2期103-108,共6页
数据增强是解决低资源场景下数据稀缺问题的有效方案。然而,当应用于诸如方面术语提取(ATE)之类的词级别任务时,数据增强方法通常会遭受词标签不对齐的问题,从而导致效果不理想。对此提出了掩码方面语言建模(MALM)作为ATE的新型数据增... 数据增强是解决低资源场景下数据稀缺问题的有效方案。然而,当应用于诸如方面术语提取(ATE)之类的词级别任务时,数据增强方法通常会遭受词标签不对齐的问题,从而导致效果不理想。对此提出了掩码方面语言建模(MALM)作为ATE的新型数据增强框架。为了缓解标记、标签错位问题,将ATE标签显式注入到句子上下文中,由此经过微调的MALM能够显式地调整标签信息来预测掩码的方面标记。因此,MALM可帮助生成具有新方面的高质量增强数据,提供丰富的层面方面知识。此外,提出了一个两阶段的训练策略来整合这些合成数据。通过实验,证明了MALM在两个ATE数据集上的有效性,相比基线方法,所提出的MALM有显著的性能改进。 展开更多
关键词 数据增强 Aspect术语提取 预训练模型 掩码方面语言建模 MALM方法
在线阅读 下载PDF
基于BERT模型的陆空通话语义校验方法的探究 被引量:1
6
作者 钟山 《科学技术创新》 2021年第9期23-24,共2页
陆空通话是飞行中关键的信息交流途径,错误的陆空通话可能引起非常严重的飞行事故。为了将陆空通话发生错误的概率降到最低,有必要在飞行员复诵指令之后进行语义的校验。近年来深度学习在自然语言处理领域有了深厚的积累,双向长短时记... 陆空通话是飞行中关键的信息交流途径,错误的陆空通话可能引起非常严重的飞行事故。为了将陆空通话发生错误的概率降到最低,有必要在飞行员复诵指令之后进行语义的校验。近年来深度学习在自然语言处理领域有了深厚的积累,双向长短时记忆网络、Text-CNN和Transformer等模型都有着很好的应用。预训练语言模型的出现更是使得自然语言处理领域有了突破性进展,预训练语言模型在各种自然语言处理任务中都有着优秀的效果。对于文本在计算机中的向量表示形式,BERT预训练语言模型采用句子对分类的方式进行语义校验。 展开更多
关键词 陆空通话 bert 文本语义 预训练语言模型 校验
在线阅读 下载PDF
基于语义理解与生成模型的铁路应急处置决策支持系统 被引量:2
7
作者 王祥昊 杨怀志 +1 位作者 王莉 胡恒闯 《铁道技术标准(中英文)》 2024年第6期44-51,共8页
本研究旨在提出一种新型的铁路应急处置决策支持系统,该系统基于语义理解与生成模型,能够有效生成应急处置策略、验证并更新处置流程,以及智能分发处置任务。首先,通过融合语义理解与生成模型及铁路应急处置专业知识库,处置策略动态生... 本研究旨在提出一种新型的铁路应急处置决策支持系统,该系统基于语义理解与生成模型,能够有效生成应急处置策略、验证并更新处置流程,以及智能分发处置任务。首先,通过融合语义理解与生成模型及铁路应急处置专业知识库,处置策略动态生成模块能够自主生成应急处置策略,并提供决策支持。接着,处置策略验证与更新模块利用Petri网模型的多方面可量化特性,实现对生成策略的验证与更新,确保策略的实时性和有效性。最后,应急处置任务智能分发模块采用基于BERT的深度学习模型进行命名实体识别和关系抽取,构建出详细的〈处置任务—归属—部门〉知识图谱,并通过Neo4j图数据库及Cypher查询语言实现任务的智能分发。通过这一综合性决策支持系统,本研究为铁路应急处置领域的智能化调度提供了有效的解决方案,并开拓了大语言模型在该领域应用的新方向。 展开更多
关键词 铁路应急处置决策 语言模型 PETRI网 检索增强生成 bert模型 Neo4j图数据库
在线阅读 下载PDF
基于改进Bert-AutoML的电力文本语义识别算法 被引量:2
8
作者 张全 赵郭燚 +2 位作者 苏媛 朱元极 任海洋 《电子设计工程》 2024年第4期43-46,51,共5页
由于电力调度过程中存在大量重复性电力文本,导致语义识别结果形式与理想形式差距较大。针对该问题,提出了基于改进Bert-AutoML的电力文本语义识别算法。采用基于词块的粒度划分方式,提取电力文本字粒度语义特征。计算语义序列与命名实... 由于电力调度过程中存在大量重复性电力文本,导致语义识别结果形式与理想形式差距较大。针对该问题,提出了基于改进Bert-AutoML的电力文本语义识别算法。采用基于词块的粒度划分方式,提取电力文本字粒度语义特征。计算语义序列与命名实体数据库中语义的相似度,获取多个对应语义序列,构建电力文本语义识别模型。使用自动机器学习法训练模型文本输入,计算输入向量和电力文本库中向量匹配度。结合字符掩码训练策略,将掩盖的内容与背景相联系,得到最终语义识别结果。实验结果表明,该算法语义识别结果呈现段落-结构形式,排列整齐且简洁,与理想识别结果一致。 展开更多
关键词 改进bert语言表示模型 AutoML 电力文本 语义识别
在线阅读 下载PDF
基于BERT的电力领域无监督分词方法
9
作者 陆斯悦 张禄 +3 位作者 李香龙 邢其敬 段大鹏 林华 《信息技术》 2024年第1期96-103,共8页
目前,已有一些分词工具实现了通用领域分词,而在电力领域中进行分词面临相关文本少,缺乏已标注数据且人工标注工作成本高等问题。为了克服这些困难,提出了一种基于BERT特征编码的无监督分词工具,采用遮蔽语言模型(MLM),基于BERT计算部... 目前,已有一些分词工具实现了通用领域分词,而在电力领域中进行分词面临相关文本少,缺乏已标注数据且人工标注工作成本高等问题。为了克服这些困难,提出了一种基于BERT特征编码的无监督分词工具,采用遮蔽语言模型(MLM),基于BERT计算部分被遮蔽的句子的特征编码来度量句子各部分相似度,并将相似度较低的部分进行拆分,再通过N-Gram对于拆分结果进行重新组合,实现电力领域的无监督分词。实验结果表明,文中方法在通用领域优于现有分词工具,尤其在电力领域的分词任务中取得了较好的效果。 展开更多
关键词 电力文本 中文分词 无监督 bert 遮蔽语言模型
在线阅读 下载PDF
基于提示学习增强BERT的理解能力
10
作者 陈亚当 杨刚 +1 位作者 王铎霖 余文斌 《信息技术》 2024年第6期87-93,共7页
提示学习旨在利用提示模板减小语言模型的预训练任务和下游任务间的差距。其难点在于提示模板的设计,为此,文中在构造提示模板的过程中,提出一个通过自动搜索离散提示对连续提示优化的新方法。其中,自动搜索提示基于双向Transformer编码... 提示学习旨在利用提示模板减小语言模型的预训练任务和下游任务间的差距。其难点在于提示模板的设计,为此,文中在构造提示模板的过程中,提出一个通过自动搜索离散提示对连续提示优化的新方法。其中,自动搜索提示基于双向Transformer编码器(Bidirectional Encoder Representation from Transformers, BERT)的预训练任务掩码语言模型训练,连续提示优化是训练自动搜索输出的离散提示在连续空间内的映射张量,根据损失函数对提示模板进行训练。实验表明,在公共基准SuperGLUE中,基于提示学习的BERT相比于原始的BERT模型在准确率和F1值上均有显著的提升。 展开更多
关键词 提示学习 双向Transformer编码器 自然语言处理 连续提示优化 掩码语言模型
在线阅读 下载PDF
基于特征对齐融合的双波段图像描述生成方法
11
作者 顾梦瑶 蔺素珍 +1 位作者 晋赞霞 李烽源 《现代电子技术》 北大核心 2025年第7期65-71,共7页
为了获得更准确、全面的现场信息,采用红外和可见光同步成像探测复杂场景已成为常态,但现有图像描述研究仍集中于可见光图像,无法全面而准确地描述已探测到的场景信息。为此,文中提出一种基于特征对齐融合的可见光⁃红外双波段图像描述... 为了获得更准确、全面的现场信息,采用红外和可见光同步成像探测复杂场景已成为常态,但现有图像描述研究仍集中于可见光图像,无法全面而准确地描述已探测到的场景信息。为此,文中提出一种基于特征对齐融合的可见光⁃红外双波段图像描述生成方法。首先,利用Faster⁃RCNN分别提取可见光图像的区域特征和红外图像的网格特征;其次,以Transformer为基本架构,在可见光⁃红外图像对齐融合(VIIAF)编码器中引入位置信息做桥接,进行可见光⁃红外图像特征的对齐与融合;接着,将融合得到的视觉信息输入Transformer解码器中得到粗粒度文本的隐藏状态;最后将编码器输出的视觉信息、解码器得到的隐藏状态与经训练的Bert输出的语言信息输入所设计的自适应模块,使视觉信息和语言信息参与文本预测,实现文本由粗到细的图像描述。在可见光图像⁃红外图像描述数据集上进行的多组实验表明:所提方法不仅能够精确捕捉到可见光和红外图像间的互补信息,而且与使用Transformer的最优模型相比,其性能在BLEU⁃1、BLEU⁃2、BLEU⁃3、BLEU⁃4、METROR、ROUGE以及CIDEr指标上分别提高1.9%、2.1%、2.0%、1.8%、1.3%、1.4%、4.4%。 展开更多
关键词 图像描述 双波段 特征对齐融合 注意力机制 TRANSFORMER 语言模型 bert 自适应
在线阅读 下载PDF
社交网络数据驱动下旅游客运需求预测模型 被引量:3
12
作者 陈坚 彭涛 +1 位作者 曹晏诗 刘柯良 《重庆交通大学学报(自然科学版)》 CAS CSCD 北大核心 2022年第10期41-47,76,共8页
为解决移动互联网络信息新环境下旅游客运需求预测模型数据来源有限所导致精度不足的问题,以社交网络数据为切入点,通过网络爬虫技术对社交网络中旅游出行相关文本数据进行采集,运用BERT模型的情感分析对社交网络文本型数据进行定量化... 为解决移动互联网络信息新环境下旅游客运需求预测模型数据来源有限所导致精度不足的问题,以社交网络数据为切入点,通过网络爬虫技术对社交网络中旅游出行相关文本数据进行采集,运用BERT模型的情感分析对社交网络文本型数据进行定量化处理。在传统旅游客运需求预测模型中融入结构化后的社交网络数据,结合天气、节假日状态等变量构建基于梯度提升回归树(GBRT)的旅游客运需求预测模型。最后,以黄山旅游风景区为实例对象,基于景区客运站实际统计数据和社交网络数据,运用上述方法,进行黄山旅游客运需求预测实证分析。结果表明,社交网络数据有助于提升旅游客运需求预测精度,基于社交网络数据的旅游需求预测模型平均预测精度相较于传统模型提升了10.81%。 展开更多
关键词 交通运输工程 旅游客运 自然语言处理 GBRT模型 bert模型 需求预测
在线阅读 下载PDF
基于BERT在税务公文系统中实现纠错功能
13
作者 袁野 朱荣钊 《现代信息科技》 2020年第13期19-21,共3页
税务公文作为社会政治的产物,具有鲜明的政治性。而撰制公文是一项严肃的工作,必须保持准确、严肃的文体特点。为减轻撰制者和审核者的负担,该实验针对税务系统,利用基于BERT-BiLSTM-CRF的序列标注模型和BERT掩码语言模型的特点,对公文... 税务公文作为社会政治的产物,具有鲜明的政治性。而撰制公文是一项严肃的工作,必须保持准确、严肃的文体特点。为减轻撰制者和审核者的负担,该实验针对税务系统,利用基于BERT-BiLSTM-CRF的序列标注模型和BERT掩码语言模型的特点,对公文句子中常见的单个字错误进行了检错、纠错实验。准确率、召回率和F1值相比传统的纠错方法有着明显的提升。结果表明,基于BERT-BiLSTM-CRF的序列标注模型和BERT掩码语言模型在税务公文检错纠错应用中具有较大价值。 展开更多
关键词 税务公文 bert掩码语言模型 bert-BiLSTM-CRF 序列标注
在线阅读 下载PDF
水文模型知识学习的命名实体识别方法研究 被引量:3
14
作者 赵慧子 周逸凡 +2 位作者 段浩 赵红莉 张东 《中国水利水电科学研究院学报(中英文)》 北大核心 2023年第6期574-585,共12页
为研究水利领域知识图谱构建中基于文本的知识自动抽取方法,本文以水文模型的名称、模拟要素、应用流域、计算时段、精度、继承-发展关系、研发人、研发单位等知识抽取为例,以883篇水文模型领域中文期刊论文为数据源,构建了BERT-Base-Ch... 为研究水利领域知识图谱构建中基于文本的知识自动抽取方法,本文以水文模型的名称、模拟要素、应用流域、计算时段、精度、继承-发展关系、研发人、研发单位等知识抽取为例,以883篇水文模型领域中文期刊论文为数据源,构建了BERT-Base-Chinese模型、LAC(Lexical Analysis of Chinese)工具、模式识别联合的多策略水文模型命名实体识别方法。本文采用五位序列标注法(BMOES)方法对期刊论文进行人工标注等处理,建立知识抽取的输入数据集,用于BERT模型训练以及多策略识别方法的性能评价。识别结果显示:多策略识别方法对8种水文模型领域命名实体识别结果精确率和召回率的调和平均数(F 1值)均达到90%以上;针对不同实体类别,采取不同的命名实体识别方法较单BERT模型识别方法能有效提高识别性能。本文提出的方法可为水利领域其他场景的知识抽取提供参考,为领域知识图谱构建提供支撑。 展开更多
关键词 水文模型知识 自然语言处理 命名实体识别 bert模型 模式识别 知识抽取
在线阅读 下载PDF
自然语言处理技术发展 被引量:26
15
作者 王海宁 《中兴通讯技术》 2022年第2期59-64,共6页
基于神经网络和深度学习的预训练语言模型为自然语言处理技术带来了突破性发展。基于自注意力机制的Transformer模型是预训练语言模型的基础。GPT、BERT、XLNet等大规模预训练语言模型均基于Transformer模型进行堆叠和优化。认为目前依... 基于神经网络和深度学习的预训练语言模型为自然语言处理技术带来了突破性发展。基于自注意力机制的Transformer模型是预训练语言模型的基础。GPT、BERT、XLNet等大规模预训练语言模型均基于Transformer模型进行堆叠和优化。认为目前依赖强大算力和海量数据的大规模预训练语言模型存在实用问题,指出轻量预训练语言模型是未来重要的发展方向。 展开更多
关键词 自然语言处理 预训练语言模型 TRANSFORMER GPT bert XLNet 模型优化
在线阅读 下载PDF
基于自然语言处理的评教文本分类与分析
16
作者 陈国心 《西安航空学院学报》 2021年第3期91-96,共6页
学生评教数据是学生对教学过程的态度最直接的反应,也是教师了解学生需求,提高教学质量的有效途径。本文利用某高校真实的学生评教数据,基于自然语言处理探索学生在教学过程中所关注的教学环节。首先,对在线教育现状进行说明,结合自然... 学生评教数据是学生对教学过程的态度最直接的反应,也是教师了解学生需求,提高教学质量的有效途径。本文利用某高校真实的学生评教数据,基于自然语言处理探索学生在教学过程中所关注的教学环节。首先,对在线教育现状进行说明,结合自然语言处理模型的特点,将数据进行预处理;其次,通过BERT预训练模型、参数微调将学生教学评论分为5个维度;最后,再通过统计分析的方法,将结果可视化呈现。分析结果表明,学生最关注教师授课过程中的备课环节,其次关注的是课堂管理,关注度最低的是对作业评讲环节,分析结果可为教师改善教学过程提供参考依据。 展开更多
关键词 教育现代化 评教 自然语言处理 bert预训练模型
在线阅读 下载PDF
面向食品安全法规的知识图谱构建 被引量:2
17
作者 张馨月 王宁 张瑶瑶 《现代信息科技》 2024年第6期103-108,114,共7页
我国建立了完备的食品安全法规体系,其具有海量和零散性的特点,难以检索分析。以食品安全法规文本数据为依托,通过自顶向下和自下而上的方式进行食品安全法规知识图谱的构造研究。首先,获取多源异构的食品安全法律法规和问答数据语料,... 我国建立了完备的食品安全法规体系,其具有海量和零散性的特点,难以检索分析。以食品安全法规文本数据为依托,通过自顶向下和自下而上的方式进行食品安全法规知识图谱的构造研究。首先,获取多源异构的食品安全法律法规和问答数据语料,对用户的需求进行分析。其次,定义食品安全知识图谱的本体层及其属性,使用基于规则的方法对知识进行抽取,针对规则性不强的知识,使用基于机器学习的命名实体识别方法完成领域命名实体识别。最后,实现食品安全法规知识图谱的构建。 展开更多
关键词 食品安全法规 知识图谱 自然语言处理 机器学习 命名实体识别 bert模型
在线阅读 下载PDF
基于图卷积半监督学习的论文作者同名消歧方法研究 被引量:4
18
作者 盛晓光 王颖 +1 位作者 钱力 王颖 《电子与信息学报》 EI CSCD 北大核心 2021年第12期3442-3450,共9页
为解决学者与成果的精确匹配问题,该文提出了一种基于图卷积半监督学习的论文作者同名消歧方法。该方法使用SciBERT预训练语言模型计算论文题目、关键字获得论文节点语义表示向量,利用论文的作者和机构信息获得论文的合作网络和机构关... 为解决学者与成果的精确匹配问题,该文提出了一种基于图卷积半监督学习的论文作者同名消歧方法。该方法使用SciBERT预训练语言模型计算论文题目、关键字获得论文节点语义表示向量,利用论文的作者和机构信息获得论文的合作网络和机构关联网络邻接矩阵,并从论文合作网络中采集伪标签获得正样本集和负样本集,将这些作为输入利用图卷积神经网络进行半监督学习,获得论文节点嵌入表示进行论文节点向量聚类,实现对论文作者同名消歧。实验结果表明,与其他消歧方法相比,该方法在实验数据集上取得了更好的效果。 展开更多
关键词 同名消歧 图卷积神经网络 bert语言模型
在线阅读 下载PDF
基于孪生网络的中医医案主诉匹配方法 被引量:1
19
作者 姜惠杰 查青林 《现代信息科技》 2023年第23期122-126,共5页
针对中医医案匹配中文本语义关系交互性不足,不能充分利用文本间的语义信息来完成匹配任务和文本特征中噪音干扰难以去除使得计算精确度较低的问题,提出一种基于语义特征交互的中医医案主诉文本匹配模型,构建基于BERT模型的文本语义特... 针对中医医案匹配中文本语义关系交互性不足,不能充分利用文本间的语义信息来完成匹配任务和文本特征中噪音干扰难以去除使得计算精确度较低的问题,提出一种基于语义特征交互的中医医案主诉文本匹配模型,构建基于BERT模型的文本语义特征提取网络,提取句子中存在的语义特征信息,再利用向量交互的方式进行特征降噪和特征增强,经由分类器得到匹配结果。可以更好地契合中医医案实际任务场景,从而使匹配结果更准确有效。实验结果表明,所提出的方法对比其他对比模型具有更高的匹配准确率,是一种比较可行的解决方案。 展开更多
关键词 bert模型 深度学习 文本匹配 自然语言处理
在线阅读 下载PDF
基于对抗迁移学习的军事科技领域命名实体识别 被引量:3
20
作者 连尧 冯俊池 丁皓 《电子设计工程》 2022年第20期121-127,共7页
当前通用领域命名实体识别模型可移植性差,在军事科技领域不具备普遍性和适应性,实际效果不佳。针对军事科技领域的独特性、标注语料规模小、实体识别任务多样等特点,将迁移学习的方法应用于军事科技领域命名实体识别,并进行了领域适配... 当前通用领域命名实体识别模型可移植性差,在军事科技领域不具备普遍性和适应性,实际效果不佳。针对军事科技领域的独特性、标注语料规模小、实体识别任务多样等特点,将迁移学习的方法应用于军事科技领域命名实体识别,并进行了领域适配与任务适配。通过预训练掩码语言模型的方法对BERT预训练模型进行了领域适配,通过对抗迁移学习的方法对BiLSTM-CRF模型行了任务适配。模型中加入了虚拟对抗训练,通过训练减少虚拟对抗损失以提高模型的鲁棒性。在军事科技领域文本上验证了该方法,实验结果表明,领域适配与任务适配对提高识别效果都有显著的积极作用。 展开更多
关键词 军事科技 命名实体识别 对抗学习 迁移学习 掩码语言模型 虚拟对抗训练
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部