期刊文献+
共找到94篇文章
< 1 2 5 >
每页显示 20 50 100
影响预训练语言模型数据泄露的因素研究
1
作者 钱汉伟 彭季天 +4 位作者 袁明 高光亮 刘晓迁 王群 朱景羽 《信息安全研究》 北大核心 2025年第2期181-188,共8页
当前广泛使用的预训练语言模型是从海量训练语料中学习通用的语言表示.自然语言处理领域的下游任务在使用预训练语言模型后性能得到显著提升,但是深度神经网络过拟合现象使得预训练语言模型可能存在泄露训练语料隐私的风险.选用T5,GPT-2... 当前广泛使用的预训练语言模型是从海量训练语料中学习通用的语言表示.自然语言处理领域的下游任务在使用预训练语言模型后性能得到显著提升,但是深度神经网络过拟合现象使得预训练语言模型可能存在泄露训练语料隐私的风险.选用T5,GPT-2,OPT等广泛使用的预训练语言模型作为研究对象,利用模型反演攻击探索影响预训练语言模型数据泄露的因素.实验过程中利用预训练语言模型生成大量样本,以困惑度等指标选取最有可能发生数据泄露风险的样本进行验证,证明了T5等不同模型均存在不同程度的数据泄露问题;同一种模型,模型规模越大数据泄露可能性越大;添加特定前缀更容易获取泄露数据等问题.对未来数据泄露问题及其防御方法进行了展望. 展开更多
关键词 自然语言处理 训练语言模型 隐私数据泄露 模型反演攻击 模型架构
在线阅读 下载PDF
基于预训练大语言模型的实体关系抽取框架及其应用
2
作者 魏伟 金成功 +3 位作者 杨龙 周默 孟祥主 冯慧 《应用科学学报》 北大核心 2025年第1期20-34,共15页
实体关系抽取是构建大规模知识图谱和专业领域数据集的重要基础之一,为此提出了一种基于预训练大语言模型的实体关系抽取框架(entity relation extraction framework based on pre-trained large language model, PLLM-RE),并针对循环... 实体关系抽取是构建大规模知识图谱和专业领域数据集的重要基础之一,为此提出了一种基于预训练大语言模型的实体关系抽取框架(entity relation extraction framework based on pre-trained large language model, PLLM-RE),并针对循环经济政策进行了实体关系抽取研究。基于所提出的PLLM-RE框架,首先使用RoBERTa模型进行循环经济政策文本的实体识别,然后选取基于Transformer的双向编码器表示(bidirectional encoder representation from Transformers, BERT)模型进行循环经济政策实体关系抽取研究,以构建该政策领域的知识图谱。研究结果表明,PLLM-RE框架在循环经济政策实体关系抽取任务上的性能优于对比模型BiLSTM-ATT、PCNN、BERT以及ALBERT,验证了所提框架在循环经济政策实体关系抽取任务上的适配性和优越性,为后续循环经济领域资源的信息挖掘和政策分析提供了新思路。 展开更多
关键词 训练语言模型 实体关系抽取框架 循环经济政策 政策分析
在线阅读 下载PDF
试论生成式大语言模型预训练活动中著作权人权益的保护
3
作者 梁雪云 《今古文创》 2025年第14期127-130,共4页
伴随生成式大语言模型的出现,预训练活动中原作品著作权人权益保护问题不断引发关注和讨论。本文在肯定生成式大语言模型预训练活动重要性的同时,也讨论了在我国现有法律框架下,人工智能开发公司可能面临的合规风险。为了解决这一矛盾,... 伴随生成式大语言模型的出现,预训练活动中原作品著作权人权益保护问题不断引发关注和讨论。本文在肯定生成式大语言模型预训练活动重要性的同时,也讨论了在我国现有法律框架下,人工智能开发公司可能面临的合规风险。为了解决这一矛盾,平衡人工智能开发公司与著作权人的各自权益,本文对比了欧盟、美国、日本对于预训练活动所采取的不同规制方式,提出作者建议,应将预训练活动纳入著作权法定许可范畴,并增加训练过程的透明性,允许著作权人自愿退出。同时,应当建立合理的收益获取与分配机制,加强跨境许可协调,实现多方共赢,促进人工智能和传统知识制造产业的均衡发展。 展开更多
关键词 语言模型 训练 数据 著作权 保护
在线阅读 下载PDF
问答式林业预训练语言模型ForestBERT 被引量:1
4
作者 谭晶维 张怀清 +2 位作者 刘洋 杨杰 郑东萍 《林业科学》 EI CAS CSCD 北大核心 2024年第9期99-110,共12页
【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策... 【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策管理提供智能化信息服务。【方法】首先,基于网络爬虫技术构建包含术语、法律法规和文献3个主题的林业语料库,使用该语料库对通用领域预训练语言模型BERT进行继续预训练,再通过掩码语言模型和下一句预测这2个任务进行自监督学习,使BERT能够有效地学习林业语义信息,得到具有林业文本通用特征的预训练语言模型ForestBERT。然后,对预训练语言模型mT5进行微调,实现样本的自动标注,通过人工校正后,构建包含3个主题共2280个样本的林业抽取式问答数据集。基于该数据集对BERT、RoBERTa、MacBERT、PERT、ELECTRA、LERT 6个通用领域的中文预训练语言模型以及本研究构建的ForestBERT进行训练和验证,以明确ForestBERT的优势。为探究不同主题对模型性能的影响,分别基于林业术语、林业法律法规、林业文献3个主题数据集对所有模型进行微调。将ForestBERT与BERT在林业文献中的问答结果进行可视化比较,以更直观展现ForestBERT的优势。【结果】ForestBERT在林业领域的抽取式问答任务中整体表现优于其他6个对比模型,与基础模型BERT相比,精确匹配(EM)分数和F1分数分别提升1.6%和1.72%,在另外5个模型的平均性能上也均提升0.96%。在各个模型最优划分比例下,ForestBERT在EM上分别优于BERT和其他5个模型2.12%和1.2%,在F1上分别优于1.88%和1.26%。此外,ForestBERT在3个林业主题上也均表现优异,术语、法律法规、文献任务的评估分数分别比其他6个模型平均提升3.06%、1.73%、2.76%。在所有模型中,术语任务表现最佳,F1的平均值达到87.63%,表现较差的法律法规也达到82.32%。在文献抽取式问答任务中,ForestBERT相比BERT可提供更准确、全面的答案。【结论】采用继续预训练的方式增强通用领域预训练语言模型的林业专业知识,可有效提升模型在林业抽取式问答任务中的表现,为林业文本和其他领域的文本处理和应用提供一种新思路。 展开更多
关键词 林业文本 BERT 训练语言模型 特定领域训练 抽取式问答任务 自然语言处理
在线阅读 下载PDF
基于自监督预训练模型和NWCE的口吃语音分类
5
作者 殷志鹏 徐新洲 《中北大学学报(自然科学版)》 2025年第1期19-26,共8页
口吃语音分类旨在利用语音信号对不同口吃类别进行分类识别,而现有相关研究没有充分考虑自监督预训练模型表示嵌入的时序特性,且只简单地表征了口吃语音数据的类别不平衡性。为此,本文提出一种基于自监督预训练模型和非线性加权交叉熵(N... 口吃语音分类旨在利用语音信号对不同口吃类别进行分类识别,而现有相关研究没有充分考虑自监督预训练模型表示嵌入的时序特性,且只简单地表征了口吃语音数据的类别不平衡性。为此,本文提出一种基于自监督预训练模型和非线性加权交叉熵(NWCE)损失的口吃语音分类方法。该方法首先利用自监督预训练模型提取副语言表示嵌入,然后通过带自注意力机制的双向长短期记忆网络模型,捕捉嵌入中显著的时序特征和上下文信息,最后利用非线性加权交叉熵损失来关注样本较少的口吃语音类别。在口吃语音分类数据集上的实验结果表明,本文方法通过学习语音中自监督预训练模型多层表示嵌入的时序信息,并且通过NWCE充分描述了各口吃类别数据间的关系,取得了比现有方法更好的口吃语音分类性能。 展开更多
关键词 计算副语言 口吃语音分类 自监督训练模型 非线性加权交叉熵损失
在线阅读 下载PDF
融合预训练语言模型的知识图谱在政务问答系统中的应用研究 被引量:2
6
作者 张朝阳 沈建辉 叶伟荣 《数字通信世界》 2024年第9期188-190,共3页
该文针对当前政务问答系统面临的复杂语境理解、政策法规解释等问题,探讨了如何将预训练语言模型与知识图谱进行有效融合,以实现更加精准、全面和个性化的政务信息问答服务,构建了政务问答系统框架,利用知识图谱和大模型工具验证了该方... 该文针对当前政务问答系统面临的复杂语境理解、政策法规解释等问题,探讨了如何将预训练语言模型与知识图谱进行有效融合,以实现更加精准、全面和个性化的政务信息问答服务,构建了政务问答系统框架,利用知识图谱和大模型工具验证了该方法在提高问答准确率、增强上下文理解能力方面的显著优势。 展开更多
关键词 知识图谱 自然语言处理 训练语言模型 三元组 知识库
在线阅读 下载PDF
基于预训练语言模型的旅游评论文本方面级情感分析研究
7
作者 谢宇欣 肖克晶 +2 位作者 曹少中 张寒 姜丹 《现代信息科技》 2024年第7期141-145,150,共6页
为了促进旅游行业的消费和经济发展,对游客在线上平台发表的景区评论文本进行分析,深入挖掘其中的细粒度情感信息,以更好地迎合游客的偏好。在实际场景中,一个句子会涉及多个实体词,致使难以准确识别它们对应的情感属性关系;且旅游场景... 为了促进旅游行业的消费和经济发展,对游客在线上平台发表的景区评论文本进行分析,深入挖掘其中的细粒度情感信息,以更好地迎合游客的偏好。在实际场景中,一个句子会涉及多个实体词,致使难以准确识别它们对应的情感属性关系;且旅游场景下的数据集存在稀缺和样本不平衡问题。由此构建了基于深度学习和提示知识的预训练语言模型,通过构建离散提示模板联合训练两个子任务,并对数据集中的少数样本进行了数据增强处理,同时在训练阶段为损失函数设置不同的权重。实验结果显示,模型在旅游评论文本数据集和公开数据集SemEval2014_Restaruant上取得了显著效果,F1值分别达到了80.81%和83.71%,有助于旅游机构实现对每个城市景点的个性化分析。 展开更多
关键词 语言模型 提示学习 方面级情感分析 训练模型
在线阅读 下载PDF
全球大语言模型研究进展:基于知识图谱的研究主题识别
8
作者 潘辉 《造纸装备及材料》 2025年第2期76-81,共6页
采用信息计量法和内容分析法构建大语言模型研究领域的全球研究主题知识图谱,探索大语言模型相关研究进展和发展趋势,凝练研究启示,以期为我国大语言模型的理论研究和应用发展提供学理依据与实践指导。研究结果表明,全球大语言模型研究... 采用信息计量法和内容分析法构建大语言模型研究领域的全球研究主题知识图谱,探索大语言模型相关研究进展和发展趋势,凝练研究启示,以期为我国大语言模型的理论研究和应用发展提供学理依据与实践指导。研究结果表明,全球大语言模型研究领域主要围绕大模型方法机制性能、大语言模型应用场景、ChatGPT性能及应用实践、数字健康及健康信息服务4个主题开展论述。通过比较分析发现,全球学术界在模型可解释性、多模态交互方法、幻觉现象与类人性等研究聚焦点值得国内学术界进行关注、研究和本土化,在此基础上提出我国大语言模型的5个研究方向。 展开更多
关键词 语言模型 主题识别 知识图谱 幻觉现象 生成型训练
在线阅读 下载PDF
大语言模型研究现状 被引量:2
9
作者 张浩严 吕文涛 +1 位作者 余润泽 邓志江 《无线电工程》 2025年第1期163-174,共12页
随着深度学习技术的不断发展,大型语言模型(Large Language Models,LLM)在自然语言处理(Natural Language Processing,NLP)领域取得了显著成就。通用人工智能概念以及ChatGPT的爆火使得LLM进入了各行各业的视线,这些模型通常基于Transfo... 随着深度学习技术的不断发展,大型语言模型(Large Language Models,LLM)在自然语言处理(Natural Language Processing,NLP)领域取得了显著成就。通用人工智能概念以及ChatGPT的爆火使得LLM进入了各行各业的视线,这些模型通常基于Transformer架构,能够处理和生成大量文本数据,表现出了强大的语言理解和生成能力。旨在以GPT系列、BERT系列和LLaMA系列为主线,概述LLM的发展现状和主要成果,介绍其主要的技术原理,分析其面临的诸多挑战和争议以及发展方向。 展开更多
关键词 语言模型 TRANSFORMER 训练 微调
在线阅读 下载PDF
自然语言处理新范式:基于预训练模型的方法 被引量:16
10
作者 车万翔 刘挺 《中兴通讯技术》 2022年第2期3-9,共7页
以BERT和GPT为代表的、基于超大规模文本数据的预训练语言模型能够充分利用大模型、大数据和大计算,使几乎所有自然语言处理任务性能都得到显著提升,在一些数据集上达到甚至超过人类水平,已成为自然语言处理的新范式。认为未来自然语言... 以BERT和GPT为代表的、基于超大规模文本数据的预训练语言模型能够充分利用大模型、大数据和大计算,使几乎所有自然语言处理任务性能都得到显著提升,在一些数据集上达到甚至超过人类水平,已成为自然语言处理的新范式。认为未来自然语言处理,乃至整个人工智能领域,将沿着“同质化”和“规模化”的道路继续前进,并将融入多模态数据、具身行为数据、社会交互数据等更多的“知识”源,从而为实现真正的通用人工智能铺平道路。 展开更多
关键词 人工智能 自然语言处理 训练语言模型 同质化
在线阅读 下载PDF
基于预训练模型的军事领域问答关系检测方法
11
作者 陈琳 段立 +1 位作者 张显峰 罗兵 《海军工程大学学报》 CAS 北大核心 2024年第5期27-33,共7页
为解决军事领域问答服务中用户问询语句的关系链接错误问题,提高知识库问答的准确性,提出了一种基于预训练语言模型的关系检测方法。首先,摒弃了用户问句中的实体名称信息,加入约束性本体信息,结合预训练语言模型嵌入注意力机制进行了... 为解决军事领域问答服务中用户问询语句的关系链接错误问题,提高知识库问答的准确性,提出了一种基于预训练语言模型的关系检测方法。首先,摒弃了用户问句中的实体名称信息,加入约束性本体信息,结合预训练语言模型嵌入注意力机制进行了关系检测模型研究;然后,将该关系检测方法结合军事语料应用于军事知识库问答任务中,进行了实验验证。结果表明:约束性本体信息的加入扩展了本体层级信息量与本体知识拓扑结构,对关系检测结果进行了约束,测试关系链接精准率提升了6.2%左右;预训练模型的嵌入为军事数据注入了更多背景知识,相比于未嵌入前,训练精准率提升了10%左右,说明结合知识库的信息特征,整体增强了关系检测在军事领域问答服务中的实际应用效果。 展开更多
关键词 关系检测 注意力机制 约束性本体 训练语言模型
在线阅读 下载PDF
自然语言处理预训练模型专题导读
12
作者 郑纬民 《中兴通讯技术》 2022年第2期1-2,共2页
近年来,预训练语言模型的出现给自然语言处理领域带来了一场变革,成为人工智能技术发展的前沿和热点。大规模预训练可以有效缓解传统技术在特征工程方面面临的压力。通过学习通用语言表示,模型具备了语言理解和生成能力,几乎在所有自然... 近年来,预训练语言模型的出现给自然语言处理领域带来了一场变革,成为人工智能技术发展的前沿和热点。大规模预训练可以有效缓解传统技术在特征工程方面面临的压力。通过学习通用语言表示,模型具备了语言理解和生成能力,几乎在所有自然语言处理任务上都取得了突破。因此,各类基准测试任务的效果显著提高,这展示了大规模预训练广阔的应用前景。庞大的参数规模使得模型具备了更强的能力,同时也对模型的构建、训练和应用落地提出了挑战。 展开更多
关键词 自然语言处理 人工智能技术 通用语言 基准测试 语言模型 生成能力 语言理解 训练
在线阅读 下载PDF
大语言模型微调训练与检索增强生成技术在油气企业制度问答应用中的效果对比研究 被引量:1
13
作者 唐嘉 庞大崴 +1 位作者 刘书铭 范志弘 《数字通信世界》 2024年第11期104-106,共3页
油气企业在长期发展过程中积累了大量企业内部资料,如规章制度、技术标准和操作指南等。这些文件数量庞大,分布广泛,查阅和共享存在困难,应用LLM技术为解决这些问题提供了创新的解决方案。在开发基于LLM的知识问答应用时,常采用微调和... 油气企业在长期发展过程中积累了大量企业内部资料,如规章制度、技术标准和操作指南等。这些文件数量庞大,分布广泛,查阅和共享存在困难,应用LLM技术为解决这些问题提供了创新的解决方案。在开发基于LLM的知识问答应用时,常采用微调和检索增强生成(RAG)这两种策略整合专有和特定领域的数据。上述方法的优缺点尚未在企业级应用得到充分理解,如何选择合适的技术路线,快速落地应用是目前企业在LLM本地化应用中首先需要解决的重要问题。该文基于油气企业内部管理制度构建特定领域知识问答系统,通过实验对比,从客观角度开展评价,为企业建设私有化知识库提供了实证经验。 展开更多
关键词 LLM大规模训练语言模型 油气企业 RAG微调
在线阅读 下载PDF
鹏程·盘古:大规模自回归中文预训练语言模型及应用 被引量:6
14
作者 曾炜 苏腾 +2 位作者 王晖 田永鸿 高文 《中兴通讯技术》 2022年第2期33-43,共11页
在鹏城云脑Ⅱ上训练了全球首个拥有全开源2000亿参数的自回归中文预训练语言大模型——鹏程·盘古。鹏程·盘古模型基于1.1 TB高质量中文训练数据,采用全场景人工智能计算框架MindSpore自动并行技术实现了五维并行训练策略,从... 在鹏城云脑Ⅱ上训练了全球首个拥有全开源2000亿参数的自回归中文预训练语言大模型——鹏程·盘古。鹏程·盘古模型基于1.1 TB高质量中文训练数据,采用全场景人工智能计算框架MindSpore自动并行技术实现了五维并行训练策略,从而可将训练任务高效扩展到4096个处理器上。对比实验表明,在少样本或零样本情况下,鹏程·盘古模型在多个中文自然语言理解或生成任务上都具有较优的性能。在此基础上,鹏程·盘古模型在大模型压缩、提示微调学习、多任务学习以及持续学习等方面也取得了很好的应用效果。 展开更多
关键词 大规模训练语言模型 鹏城云脑Ⅱ 大规模分布式训练 中文理解与生成 提示微调学习
在线阅读 下载PDF
基于预训练语言模型的管制信息抽取方法 被引量:1
15
作者 张潇霄 王煊 +2 位作者 王磊 张晓海 杨涛 《指挥控制与仿真》 2023年第2期107-111,共5页
在空中交通管理中,管制员使用管制指令调节航空器状态,飞行员通过复诵指令进行确认。管制指令的正确理解对飞行安全具有重大意义。提出一种新的管制信息抽取方法,即基于语言模型的预训练和微调,通过迁移学习实现小样本管制信息抽取。该... 在空中交通管理中,管制员使用管制指令调节航空器状态,飞行员通过复诵指令进行确认。管制指令的正确理解对飞行安全具有重大意义。提出一种新的管制信息抽取方法,即基于语言模型的预训练和微调,通过迁移学习实现小样本管制信息抽取。该方法在训练数据量降低时,仍能实现准确率的提升。仿真结果表明,新模型对管制信息抽取的准确率不低于98%,可以有效提取管制指令中的关键信息。该方法可提升空管系统的智慧化程度,辅助管制员理解管制指令内容,支撑飞行冲突检测,保障航空运输安全。 展开更多
关键词 航空运输 管制指令 信息抽取 训练语言模型 迁移学习
在线阅读 下载PDF
一种基于预训练模型掩码Aspect术语的数据增强方法
16
作者 石晓瑞 《信息技术与信息化》 2024年第2期103-108,共6页
数据增强是解决低资源场景下数据稀缺问题的有效方案。然而,当应用于诸如方面术语提取(ATE)之类的词级别任务时,数据增强方法通常会遭受词标签不对齐的问题,从而导致效果不理想。对此提出了掩码方面语言建模(MALM)作为ATE的新型数据增... 数据增强是解决低资源场景下数据稀缺问题的有效方案。然而,当应用于诸如方面术语提取(ATE)之类的词级别任务时,数据增强方法通常会遭受词标签不对齐的问题,从而导致效果不理想。对此提出了掩码方面语言建模(MALM)作为ATE的新型数据增强框架。为了缓解标记、标签错位问题,将ATE标签显式注入到句子上下文中,由此经过微调的MALM能够显式地调整标签信息来预测掩码的方面标记。因此,MALM可帮助生成具有新方面的高质量增强数据,提供丰富的层面方面知识。此外,提出了一个两阶段的训练策略来整合这些合成数据。通过实验,证明了MALM在两个ATE数据集上的有效性,相比基线方法,所提出的MALM有显著的性能改进。 展开更多
关键词 数据增强 Aspect术语提取 训练模型 掩码方面语言建模 MALM方法
在线阅读 下载PDF
结合提示学习和自注意力的预训练语言模型
17
作者 汪辉 于瓅 《佳木斯大学学报(自然科学版)》 CAS 2023年第2期19-22,共4页
在自然语言处理领域的下游任务中,具有代表性的双向Transformer编码表示的预训练模型(Bidirectional Encoder Representations from Transformers)BERT呈现出非常出色的性能。为了解决预训练模型的预训练阶段任务和下游任务不一致,利用... 在自然语言处理领域的下游任务中,具有代表性的双向Transformer编码表示的预训练模型(Bidirectional Encoder Representations from Transformers)BERT呈现出非常出色的性能。为了解决预训练模型的预训练阶段任务和下游任务不一致,利用提示学习的修改策略以及自注意力机制的方法,构建新的掩盖训练任务,在官方的中文BERT预训练模型的基础上再训练。这样不仅能运用到预训练任务获得的知识,而且可以针对性的对下游任务上进行提升,最终加强模型的抗干扰能力以及学习效率。研究结果表明:相较RoBERTa和BERT,在数据集THUCNews和TNEWS上这种模型能达更高的分数。 展开更多
关键词 自注意力机制 训练语言模型 掩盖语言模型 文本分类
在线阅读 下载PDF
融合非偏好注意力跨度的预训练语言模型
18
作者 邹傲 郝文宁 +1 位作者 陈刚 靳大尉 《陆军工程大学学报》 2023年第3期49-57,共9页
语言模型是自然语言处理领域最重要的任务之一,并以迁移学习的方式影响着机器翻译、机器阅读理解、自动文本摘要等诸多下游任务。依托多头自注意力构建的大规模预训练语言模型在特征提取和文本表征能力上相较之前的神经网络模型取得了... 语言模型是自然语言处理领域最重要的任务之一,并以迁移学习的方式影响着机器翻译、机器阅读理解、自动文本摘要等诸多下游任务。依托多头自注意力构建的大规模预训练语言模型在特征提取和文本表征能力上相较之前的神经网络模型取得了较大提升,却也极大地增加了模型训练的时空复杂度。为此,从模糊群决策的角度出发,将毕达哥拉斯模糊非偏好函数用作多头注意力跨度范围的先验,提出一种自适应的注意力跨度调节机制,较大程度地改善了模型捕捉长距离文本依赖的能力,并使模型的整体计算复杂度相较原始Transformer结构维持在较低水平。公开语言模型数据集上的实验表明:所提方法在困惑度指标上取得了较好的性能,超越了多种以往的方法。 展开更多
关键词 训练语言模型 多头注意力 自适应注意力跨度 毕达哥拉斯模糊 非偏好函数
在线阅读 下载PDF
基于预训练语言模型和双向门控循环单元的文本情感分析
19
作者 李荣 《数字技术与应用》 2023年第3期52-54,共3页
随着网络信息技术应用范围不断扩大,网络信息量日益增多,为进一步加强对网络中文本的情感分析效果,本文对当前的文本情感句子层次进行分析,并提出基于预训练语言模型和双向门控循环单元的文本情感分析方式,通过构建深度学习网络模型,强... 随着网络信息技术应用范围不断扩大,网络信息量日益增多,为进一步加强对网络中文本的情感分析效果,本文对当前的文本情感句子层次进行分析,并提出基于预训练语言模型和双向门控循环单元的文本情感分析方式,通过构建深度学习网络模型,强化不同层次的文本训练和分析,提高模型的实际应用效果,以期为相关人员提供几点参考。1文本情感分析概述早期的文本情感分析中,主要通过情感词典的方式进行加权求和,完成信息情感分析~([1])。但该方式主要对情感词汇进行分析,忽视语义中的实际含义,从而使计算结果可能存在一定的误差。 展开更多
关键词 情感分析 情感词典 训练 语言模型 深度学习 网络信息技术 网络模型 门控
在线阅读 下载PDF
基于预训练语言模型的中文零指代消解
20
作者 申资卓 《信息通信》 2020年第5期41-43,共3页
中文零指代消解是一项具有挑战的自然语言处理任务,其目的是确定文档中零代词真正的指代对象,从而使得机器能够正确理解含有零代词的文本的含义。现有的基于深度学习的中文零指代消解模型受限于训练数据规模的限制,其性能依然较低。该... 中文零指代消解是一项具有挑战的自然语言处理任务,其目的是确定文档中零代词真正的指代对象,从而使得机器能够正确理解含有零代词的文本的含义。现有的基于深度学习的中文零指代消解模型受限于训练数据规模的限制,其性能依然较低。该文则将在大规模语料中训练得到的预训练语言模型的信息融入到中文零指代消解模型中,并通过在OntoNotes-5.0数据集上的实验验证了该文提出的方法的有效性。 展开更多
关键词 深度学习 中文零指代消解 训练语言模型
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部