期刊文献+
共找到203篇文章
< 1 2 11 >
每页显示 20 50 100
基于对比学习和预训练Transformer的流量隐匿数据检测方法
1
作者 何帅 张京超 +3 位作者 徐笛 江帅 郭晓威 付才 《通信学报》 北大核心 2025年第3期221-233,共13页
为解决海量加密流量难表征、恶意行为难感知以及隐私数据归属难识别的问题,提出了一种基于对比学习和预训练Transformer的流量隐匿数据检测方法。考虑加密流量的高度复杂性、非结构化的特点以及传统下游任务的微调方法在加密流量领域的... 为解决海量加密流量难表征、恶意行为难感知以及隐私数据归属难识别的问题,提出了一种基于对比学习和预训练Transformer的流量隐匿数据检测方法。考虑加密流量的高度复杂性、非结构化的特点以及传统下游任务的微调方法在加密流量领域的效果不佳的挑战,数据报文通过提取数据包序列被转换为类似自然语言处理中的词元。然后利用预训练Transformer模型将浅层表征转换为适用于多种加密流量下游任务的通用流量表征。通过将流量中的隐匿数据检测问题转换为相似性分析问题,基于对比学习的思想设计了一种差异性敏感的Transformer模型架构,同时使用样本的正负样本对增强模型对流量差异性的感知能力,并提出使用信息对比估计作为加密流量下游任务微调的损失函数。实验结果表明,所提方法在检测准确率、精确率、召回率以及F1分数等方面优于主流方法。 展开更多
关键词 流量隐匿数据检测 预训练transformer模型 对比学习 加密流量
在线阅读 下载PDF
基于预训练Transformer语言模型的源代码剽窃检测研究 被引量:1
2
作者 钱亮宏 王福德 孙晓海 《吉林大学学报(信息科学版)》 CAS 2024年第4期747-753,共7页
为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记... 为解决源代码剽窃检测的问题,以及针对现有方法需要大量训练数据且受限于特定语言的不足,提出了一种基于预训练Transformer语言模型的源代码剽窃检测方法,其结合了词嵌入,相似度计算和分类模型。该方法支持多种编程语言,不需要任何标记为剽窃的训练样本,即可达到较好的检测性能。实验结果表明,该方法在多个公开数据集上取得了先进的检测效果,F1值接近。同时,对特定的能获取到较少标记为剽窃训练样本的场景,还提出了一种结合有监督学习分类模型的方法,进一步提升了检测效果。该方法能广泛应用于缺乏训练数据、计算资源有限以及语言多样的源代码剽窃检测场景。 展开更多
关键词 源代码剽窃检测 transformer 模型 训练模型 机器学习 深度学习
在线阅读 下载PDF
影响预训练语言模型数据泄露的因素研究
3
作者 钱汉伟 彭季天 +4 位作者 袁明 高光亮 刘晓迁 王群 朱景羽 《信息安全研究》 北大核心 2025年第2期181-188,共8页
当前广泛使用的预训练语言模型是从海量训练语料中学习通用的语言表示.自然语言处理领域的下游任务在使用预训练语言模型后性能得到显著提升,但是深度神经网络过拟合现象使得预训练语言模型可能存在泄露训练语料隐私的风险.选用T5,GPT-2... 当前广泛使用的预训练语言模型是从海量训练语料中学习通用的语言表示.自然语言处理领域的下游任务在使用预训练语言模型后性能得到显著提升,但是深度神经网络过拟合现象使得预训练语言模型可能存在泄露训练语料隐私的风险.选用T5,GPT-2,OPT等广泛使用的预训练语言模型作为研究对象,利用模型反演攻击探索影响预训练语言模型数据泄露的因素.实验过程中利用预训练语言模型生成大量样本,以困惑度等指标选取最有可能发生数据泄露风险的样本进行验证,证明了T5等不同模型均存在不同程度的数据泄露问题;同一种模型,模型规模越大数据泄露可能性越大;添加特定前缀更容易获取泄露数据等问题.对未来数据泄露问题及其防御方法进行了展望. 展开更多
关键词 自然语言处理 训练语言模型 隐私数据泄露 模型反演攻击 模型架构
在线阅读 下载PDF
基于预训练模型的网络空间安全命名实体识别方法
4
作者 韩瑶鹏 王璐 +3 位作者 姜波 卢志刚 姜政伟 刘玉岭 《信息安全学报》 2025年第1期194-204,共11页
随着网络空间安全文档数量的快速增长,网络空间安全领域命名实体识别变的越来越重要。与通用领域命名实体识别任务相比,网络空间安全领域的命名实体识别面临许多挑战。例如网络空间安全实体类型多样、新词语经常作为新的实体出现并引起... 随着网络空间安全文档数量的快速增长,网络空间安全领域命名实体识别变的越来越重要。与通用领域命名实体识别任务相比,网络空间安全领域的命名实体识别面临许多挑战。例如网络空间安全实体类型多样、新词语经常作为新的实体出现并引起超出词表(out-of-vocabulary,OOV)的问题。现有的深度学习识别模型(如循环神经网络、卷积神经网络)的性能不足以应对这些挑战。随着预训练模型的快速发展,它已被广泛用于许多任务中并获得了最优的表现。但是,在网络空间安全命名实体识别领域,很少有关于预训练模型的研究。本文提出了两个基于预训练pre-training of deep bidirectional transformers(BERT)模型的网络空间安全命名实体识别模型来从网络空间安全文本中提取安全实体,分别称为“First Subword Replaced(FSR)”和“Masked Cross-Entropy Loss(MCEL)”。FSR模型和MCEL模型还可以解决因BERT使用WordPiece分词器引起的子词和标签之间的不匹配问题。本文基于真实的网络空间安全文本语料库进行了充分的实验。结果表明,本文提出基于预训练的模型在网络空间安全数据集上的F1值比之前的最优模型高了1.88%。 展开更多
关键词 网络空间安全 命名实体识别 训练模型
在线阅读 下载PDF
基于预训练大模型的无监督图像字幕生成优化
5
作者 李炳楠 丁濛 《北京信息科技大学学报(自然科学版)》 2025年第1期11-19,共9页
图像字幕生成模型普遍依赖高质量的图像-文本对,且泛化能力较差。早期研究通过对比语言-图像预训练(contrastive language-imagepre-training,CLIP)模型的跨模态关联性,尝试利用无监督文本数据生成字幕,减少了对成对数据的依赖。然而,... 图像字幕生成模型普遍依赖高质量的图像-文本对,且泛化能力较差。早期研究通过对比语言-图像预训练(contrastive language-imagepre-training,CLIP)模型的跨模态关联性,尝试利用无监督文本数据生成字幕,减少了对成对数据的依赖。然而,这些方法未能有效缩小CLIP文本与图像嵌入之间的差距,也未充分利用图像和文本的局部特征。为解决上述挑战,提出了一种基于纯文本训练的图像字幕生成框架——FusionCap。结合噪声网络和投影网络策略,有效缩小了文本与图像模态之间的差距,并引入局部特征提取模块,提升了模型对细粒度特征的捕捉能力。实验结果表明,FusionCap模型在字幕生成的准确性和细节描述方面显著优于现有的纯文本训练方法。尤其是在零样本生成场景中,生成的字幕在细节捕捉和语义一致性方面表现出色,验证了其良好的泛化能力和生成效果。 展开更多
关键词 图像字幕生成 多模态 训练模型 无监督学习算法 深度学习
在线阅读 下载PDF
WGAN-GP数据增强及预训练模型的SAR目标识别方法
6
作者 周明康 张静 朱晨晨 《信息工程大学学报》 2025年第1期21-28,共8页
合成孔径雷达自动目标识别(SAR ATR)技术广泛应用于目标监测等军事领域,但标记SAR样本难以获得限制了现有识别技术的使用。提出一种基于带梯度惩罚的生成对抗网络(WGAN-GP)和预训练模型相结合的SAR目标识别方法,利用WGAN-GP对小样本训... 合成孔径雷达自动目标识别(SAR ATR)技术广泛应用于目标监测等军事领域,但标记SAR样本难以获得限制了现有识别技术的使用。提出一种基于带梯度惩罚的生成对抗网络(WGAN-GP)和预训练模型相结合的SAR目标识别方法,利用WGAN-GP对小样本训练数据集进行扩充后,输入到大规模遥感图像场景(RESISC)分类数据集预训练后的卷积神经网络(CNN)模型中进行训练,最终得到SAR目标识别结果。利用运动和静止目标获取识别(MSTAR)数据集检测算法能力,实验结果表明,所提方法所使用的WGAN-GP对比其他生成对抗网络在SAR样本增强上具备性能优势,而RESISC45数据集的选取能有效提升分类器预训练的能力。与现有研究成果相比,所提方法在提高SAR目标识别精度和CNN模型收敛速度上具备优势。 展开更多
关键词 合成孔径雷达自动目标识别 带梯度惩罚的生成对抗网络 训练模型
在线阅读 下载PDF
基于预训练大语言模型的实体关系抽取框架及其应用
7
作者 魏伟 金成功 +3 位作者 杨龙 周默 孟祥主 冯慧 《应用科学学报》 北大核心 2025年第1期20-34,共15页
实体关系抽取是构建大规模知识图谱和专业领域数据集的重要基础之一,为此提出了一种基于预训练大语言模型的实体关系抽取框架(entity relation extraction framework based on pre-trained large language model, PLLM-RE),并针对循环... 实体关系抽取是构建大规模知识图谱和专业领域数据集的重要基础之一,为此提出了一种基于预训练大语言模型的实体关系抽取框架(entity relation extraction framework based on pre-trained large language model, PLLM-RE),并针对循环经济政策进行了实体关系抽取研究。基于所提出的PLLM-RE框架,首先使用RoBERTa模型进行循环经济政策文本的实体识别,然后选取基于Transformer的双向编码器表示(bidirectional encoder representation from Transformers, BERT)模型进行循环经济政策实体关系抽取研究,以构建该政策领域的知识图谱。研究结果表明,PLLM-RE框架在循环经济政策实体关系抽取任务上的性能优于对比模型BiLSTM-ATT、PCNN、BERT以及ALBERT,验证了所提框架在循环经济政策实体关系抽取任务上的适配性和优越性,为后续循环经济领域资源的信息挖掘和政策分析提供了新思路。 展开更多
关键词 训练大语言模型 实体关系抽取框架 循环经济政策 政策分析
在线阅读 下载PDF
试论生成式大语言模型预训练活动中著作权人权益的保护
8
作者 梁雪云 《今古文创》 2025年第14期127-130,共4页
伴随生成式大语言模型的出现,预训练活动中原作品著作权人权益保护问题不断引发关注和讨论。本文在肯定生成式大语言模型预训练活动重要性的同时,也讨论了在我国现有法律框架下,人工智能开发公司可能面临的合规风险。为了解决这一矛盾,... 伴随生成式大语言模型的出现,预训练活动中原作品著作权人权益保护问题不断引发关注和讨论。本文在肯定生成式大语言模型预训练活动重要性的同时,也讨论了在我国现有法律框架下,人工智能开发公司可能面临的合规风险。为了解决这一矛盾,平衡人工智能开发公司与著作权人的各自权益,本文对比了欧盟、美国、日本对于预训练活动所采取的不同规制方式,提出作者建议,应将预训练活动纳入著作权法定许可范畴,并增加训练过程的透明性,允许著作权人自愿退出。同时,应当建立合理的收益获取与分配机制,加强跨境许可协调,实现多方共赢,促进人工智能和传统知识制造产业的均衡发展。 展开更多
关键词 大语言模型 训练 数据 著作权 保护
在线阅读 下载PDF
基于预训练模型的语音情感识别算法
9
作者 许苏魁 潘敬敏 +1 位作者 何灏 胡婷婷 《科学技术创新》 2025年第3期65-68,共4页
针对语音情感识别任务,本文提出一种基于开源大规模语音预训练模型的算法方案。类似于图像分类任务的迁移学习做法,把wav2vec2或者HuBERT模型当作语音特征提取器,对语音数据提取特征,然后接全连接网络进行分类。同时,固定预训练模型的... 针对语音情感识别任务,本文提出一种基于开源大规模语音预训练模型的算法方案。类似于图像分类任务的迁移学习做法,把wav2vec2或者HuBERT模型当作语音特征提取器,对语音数据提取特征,然后接全连接网络进行分类。同时,固定预训练模型的里的提特征模块权重,对其Transformer层和最终的分类网络一起进行微调。实验结果显示,在IEMOCAP数据集的四类情感识别任务上,采用HuBERT-large的预训练模型,本文的方法可以取得0.731的分类正确率。 展开更多
关键词 训练语音模型 情感识别 自监督模型 迁移学习 深度学习
在线阅读 下载PDF
基于自监督预训练模型和NWCE的口吃语音分类
10
作者 殷志鹏 徐新洲 《中北大学学报(自然科学版)》 2025年第1期19-26,共8页
口吃语音分类旨在利用语音信号对不同口吃类别进行分类识别,而现有相关研究没有充分考虑自监督预训练模型表示嵌入的时序特性,且只简单地表征了口吃语音数据的类别不平衡性。为此,本文提出一种基于自监督预训练模型和非线性加权交叉熵(N... 口吃语音分类旨在利用语音信号对不同口吃类别进行分类识别,而现有相关研究没有充分考虑自监督预训练模型表示嵌入的时序特性,且只简单地表征了口吃语音数据的类别不平衡性。为此,本文提出一种基于自监督预训练模型和非线性加权交叉熵(NWCE)损失的口吃语音分类方法。该方法首先利用自监督预训练模型提取副语言表示嵌入,然后通过带自注意力机制的双向长短期记忆网络模型,捕捉嵌入中显著的时序特征和上下文信息,最后利用非线性加权交叉熵损失来关注样本较少的口吃语音类别。在口吃语音分类数据集上的实验结果表明,本文方法通过学习语音中自监督预训练模型多层表示嵌入的时序信息,并且通过NWCE充分描述了各口吃类别数据间的关系,取得了比现有方法更好的口吃语音分类性能。 展开更多
关键词 计算副语言 口吃语音分类 自监督训练模型 非线性加权交叉熵损失
在线阅读 下载PDF
语义增强图像-文本预训练模型的零样本三维模型分类
11
作者 丁博 张立宝 +1 位作者 秦健 何勇军 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第8期3314-3323,共10页
目前,基于对比学习的图像-文本预训练模型(CLIP)在零样本3维模型分类任务上表现出了巨大潜力,然而3维模型和文本之间存在巨大的模态鸿沟,影响了分类准确率的进一步提高。针对以上问题,该文提出一种语义增强CLIP的零样本3维模型分类方法... 目前,基于对比学习的图像-文本预训练模型(CLIP)在零样本3维模型分类任务上表现出了巨大潜力,然而3维模型和文本之间存在巨大的模态鸿沟,影响了分类准确率的进一步提高。针对以上问题,该文提出一种语义增强CLIP的零样本3维模型分类方法。该方法首先将3维模型表示成多视图;然后为了增强零样本学习对未知类别的识别能力,通过视觉语言生成模型获得每张视图及其类别的语义描述性文本,并将其作为视图和类别提示文本之间的语义桥梁,语义描述性文本采用图像字幕和视觉问答两种方式获取;最后微调语义编码器将语义描述性文本具化为类别的语义描述,其拥有丰富的语义信息和较好的可解释性,有效减小了视图和类别提示文本的语义鸿沟。实验表明,该文方法在ModelNet10和ModelNet40数据集上的分类性能优于现有的零样本分类方法。 展开更多
关键词 3维模型分类 零样本 基于对比学习的图像-文本训练模型 语义描述性文本
在线阅读 下载PDF
问答式林业预训练语言模型ForestBERT 被引量:1
12
作者 谭晶维 张怀清 +2 位作者 刘洋 杨杰 郑东萍 《林业科学》 EI CAS CSCD 北大核心 2024年第9期99-110,共12页
【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策... 【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策管理提供智能化信息服务。【方法】首先,基于网络爬虫技术构建包含术语、法律法规和文献3个主题的林业语料库,使用该语料库对通用领域预训练语言模型BERT进行继续预训练,再通过掩码语言模型和下一句预测这2个任务进行自监督学习,使BERT能够有效地学习林业语义信息,得到具有林业文本通用特征的预训练语言模型ForestBERT。然后,对预训练语言模型mT5进行微调,实现样本的自动标注,通过人工校正后,构建包含3个主题共2280个样本的林业抽取式问答数据集。基于该数据集对BERT、RoBERTa、MacBERT、PERT、ELECTRA、LERT 6个通用领域的中文预训练语言模型以及本研究构建的ForestBERT进行训练和验证,以明确ForestBERT的优势。为探究不同主题对模型性能的影响,分别基于林业术语、林业法律法规、林业文献3个主题数据集对所有模型进行微调。将ForestBERT与BERT在林业文献中的问答结果进行可视化比较,以更直观展现ForestBERT的优势。【结果】ForestBERT在林业领域的抽取式问答任务中整体表现优于其他6个对比模型,与基础模型BERT相比,精确匹配(EM)分数和F1分数分别提升1.6%和1.72%,在另外5个模型的平均性能上也均提升0.96%。在各个模型最优划分比例下,ForestBERT在EM上分别优于BERT和其他5个模型2.12%和1.2%,在F1上分别优于1.88%和1.26%。此外,ForestBERT在3个林业主题上也均表现优异,术语、法律法规、文献任务的评估分数分别比其他6个模型平均提升3.06%、1.73%、2.76%。在所有模型中,术语任务表现最佳,F1的平均值达到87.63%,表现较差的法律法规也达到82.32%。在文献抽取式问答任务中,ForestBERT相比BERT可提供更准确、全面的答案。【结论】采用继续预训练的方式增强通用领域预训练语言模型的林业专业知识,可有效提升模型在林业抽取式问答任务中的表现,为林业文本和其他领域的文本处理和应用提供一种新思路。 展开更多
关键词 林业文本 BERT 训练语言模型 特定领域训练 抽取式问答任务 自然语言处理
在线阅读 下载PDF
基于预训练模型的单帧航拍图像无监督语义分割 被引量:2
13
作者 任月冬 游新冬 +1 位作者 滕尚志 吕学强 《北京信息科技大学学报(自然科学版)》 2024年第2期21-28,共8页
针对航拍图像语义分割成本高、通用性差和精度低等问题,提出了一种两阶段无监督语义分割网络(two-stage unsupervised semantic segmentation net, TUSSNet),针对单帧航拍图像训练进而生成最终的语义分割结果。算法分为2个阶段。首先,... 针对航拍图像语义分割成本高、通用性差和精度低等问题,提出了一种两阶段无监督语义分割网络(two-stage unsupervised semantic segmentation net, TUSSNet),针对单帧航拍图像训练进而生成最终的语义分割结果。算法分为2个阶段。首先,使用对比语言-图像预训练(contrastive language-image pretraining, CLIP)模型生成航拍图像的粗粒度语义标签,然后进行网络的预热训练。其次,在第一阶段的基础上,采用分割一切模型(segment anything model, SAM)对航拍图像进行细粒度类别预测,生成精细化类别掩码伪标签;然后迭代优化网络,得到最终语义分割结果。实验结果显示,相较于现有无监督语义分割方法,算法显著提高了航拍图像的分割精度,同时提供了准确的语义信息。 展开更多
关键词 训练模型 航拍图像 语义分割 无监督算法 聚类效果估计 深度学习
在线阅读 下载PDF
基于预训练模型的军事领域问答关系检测方法
14
作者 陈琳 段立 +1 位作者 张显峰 罗兵 《海军工程大学学报》 CAS 北大核心 2024年第5期27-33,共7页
为解决军事领域问答服务中用户问询语句的关系链接错误问题,提高知识库问答的准确性,提出了一种基于预训练语言模型的关系检测方法。首先,摒弃了用户问句中的实体名称信息,加入约束性本体信息,结合预训练语言模型嵌入注意力机制进行了... 为解决军事领域问答服务中用户问询语句的关系链接错误问题,提高知识库问答的准确性,提出了一种基于预训练语言模型的关系检测方法。首先,摒弃了用户问句中的实体名称信息,加入约束性本体信息,结合预训练语言模型嵌入注意力机制进行了关系检测模型研究;然后,将该关系检测方法结合军事语料应用于军事知识库问答任务中,进行了实验验证。结果表明:约束性本体信息的加入扩展了本体层级信息量与本体知识拓扑结构,对关系检测结果进行了约束,测试关系链接精准率提升了6.2%左右;预训练模型的嵌入为军事数据注入了更多背景知识,相比于未嵌入前,训练精准率提升了10%左右,说明结合知识库的信息特征,整体增强了关系检测在军事领域问答服务中的实际应用效果。 展开更多
关键词 关系检测 注意力机制 约束性本体 训练语言模型
在线阅读 下载PDF
基于预训练模型的中心分级燃烧室燃烧振荡 预报方法
15
作者 覃子宇 王欣尧 +1 位作者 韩啸 林宇震 《推进技术》 EI CAS CSCD 北大核心 2024年第4期182-189,共8页
为促进实现燃气轮机燃烧室中的燃烧振荡预报,提出一种结合预训练和迁移学习的研究思路。在预训练阶段,开展短火焰筒和长火焰筒下两类火焰图像的对比学习以完成编码器的自监督预训练。在迁移阶段,除了对特征编码构建线性分类器的直接迁移... 为促进实现燃气轮机燃烧室中的燃烧振荡预报,提出一种结合预训练和迁移学习的研究思路。在预训练阶段,开展短火焰筒和长火焰筒下两类火焰图像的对比学习以完成编码器的自监督预训练。在迁移阶段,除了对特征编码构建线性分类器的直接迁移,本文还提出将工况参数作为先验条件的贝叶斯迁移学习。结果表明,在两种迁移学习方式下预训练模型相比传统监督学习模型具有4.6%左右的性能提升。同时基于贝叶斯推断的迁移学习相比直接迁移鲁棒性更好。通过主成分分析和分层聚类,验证预训练模型能够提取火焰图像更为通用的热声特征。 展开更多
关键词 燃气轮机 燃烧室 燃烧振荡 训练模型 迁移学习 主成分分析 分层聚类
在线阅读 下载PDF
一种基于预训练模型的语音深度伪造算法识别方法
16
作者 田野 罗曦 +2 位作者 许斌 葛珊 张向阳 《电声技术》 2024年第2期28-31,35,共5页
为提高语音深度伪造算法识别模型的准确性和对未知伪造算法识别的泛化性,文章提出一种基于预训练模型的识别方法。基于真伪语音数据集,微调训练HuBERT预训练模型,并基于模型输出的深层嵌入特征构建流形空间,通过度量不同伪造算法下语音... 为提高语音深度伪造算法识别模型的准确性和对未知伪造算法识别的泛化性,文章提出一种基于预训练模型的识别方法。基于真伪语音数据集,微调训练HuBERT预训练模型,并基于模型输出的深层嵌入特征构建流形空间,通过度量不同伪造算法下语音数据流形空间的测地线距离进行伪造算法的判定。实验表明,所提方法可以较为有效地实现对已知和未知伪造算法的识别。 展开更多
关键词 深度伪造算法识别 训练模型 流形测度
在线阅读 下载PDF
基于预训练语言模型的旅游评论文本方面级情感分析研究
17
作者 谢宇欣 肖克晶 +2 位作者 曹少中 张寒 姜丹 《现代信息科技》 2024年第7期141-145,150,共6页
为了促进旅游行业的消费和经济发展,对游客在线上平台发表的景区评论文本进行分析,深入挖掘其中的细粒度情感信息,以更好地迎合游客的偏好。在实际场景中,一个句子会涉及多个实体词,致使难以准确识别它们对应的情感属性关系;且旅游场景... 为了促进旅游行业的消费和经济发展,对游客在线上平台发表的景区评论文本进行分析,深入挖掘其中的细粒度情感信息,以更好地迎合游客的偏好。在实际场景中,一个句子会涉及多个实体词,致使难以准确识别它们对应的情感属性关系;且旅游场景下的数据集存在稀缺和样本不平衡问题。由此构建了基于深度学习和提示知识的预训练语言模型,通过构建离散提示模板联合训练两个子任务,并对数据集中的少数样本进行了数据增强处理,同时在训练阶段为损失函数设置不同的权重。实验结果显示,模型在旅游评论文本数据集和公开数据集SemEval2014_Restaruant上取得了显著效果,F1值分别达到了80.81%和83.71%,有助于旅游机构实现对每个城市景点的个性化分析。 展开更多
关键词 语言模型 提示学习 方面级情感分析 训练模型
在线阅读 下载PDF
融合预训练语言模型的知识图谱在政务问答系统中的应用研究 被引量:1
18
作者 张朝阳 沈建辉 叶伟荣 《数字通信世界》 2024年第9期188-190,共3页
该文针对当前政务问答系统面临的复杂语境理解、政策法规解释等问题,探讨了如何将预训练语言模型与知识图谱进行有效融合,以实现更加精准、全面和个性化的政务信息问答服务,构建了政务问答系统框架,利用知识图谱和大模型工具验证了该方... 该文针对当前政务问答系统面临的复杂语境理解、政策法规解释等问题,探讨了如何将预训练语言模型与知识图谱进行有效融合,以实现更加精准、全面和个性化的政务信息问答服务,构建了政务问答系统框架,利用知识图谱和大模型工具验证了该方法在提高问答准确率、增强上下文理解能力方面的显著优势。 展开更多
关键词 知识图谱 自然语言处理 训练语言模型 三元组 知识库
在线阅读 下载PDF
可重构OCS技术在大模型预训练中的应用(特邀)
19
作者 朱宸 周谞 王佩龙 《光通信研究》 北大核心 2024年第5期25-34,共10页
【目的】相比于电子分组交换机(EPS),全光电路交换(OCS)在时延、功耗、成本和稳定性等各个方面都体现出了优势,文章通过分析大模型预训练中的并行切分策略、集合通信需求、流量模式和现今的网络架构,讨论了基于OCS在训练组网中的可行的... 【目的】相比于电子分组交换机(EPS),全光电路交换(OCS)在时延、功耗、成本和稳定性等各个方面都体现出了优势,文章通过分析大模型预训练中的并行切分策略、集合通信需求、流量模式和现今的网络架构,讨论了基于OCS在训练组网中的可行的应用方式,以在训练任务中充分利用OCS的优势。【方法】文章提出在故障快速恢复中采用多个小端口OCS进行网络设备冗余保护的机制,可在机顶(ToR)交换机故障时快速切换不中断训练任务。此外,文章还提出OCS只为数据并行(DP)服务,且仅在任务开始前进行配置。【结果】文章提出了多种可行的光电组网架构,以及在不同AllReduce算法下的具体配置,采用包括集合通信算法和架构设计联合优化的方式达到更优的带宽利用率。【结论】只要充分结合训练任务的流量模型,OCS可以很好地融入现有EPS网络架构,从成本、低功耗、低时延以及高稳定性等各方面对大模型预训练进行优化。 展开更多
关键词 全光电路交换 可重构 光电混合网络架构 模型训练 集合通信 并行训练
在线阅读 下载PDF
基于预训练模型的问答系统设计
20
作者 许诚 程强 +1 位作者 白金辉 卢坤 《舰船电子工程》 2024年第8期135-139,共5页
旨在基于spaCy基础预训练模型设计一个军事领域问答系统。首先,引入了一种实体识别的方法,利用义原相似度评估的方法对该模型进行扩展和微调。随后,探讨了把匹配器(Matcher)组件添加进spaCy管道并结合Adam神经网络优化器进行实体关系提... 旨在基于spaCy基础预训练模型设计一个军事领域问答系统。首先,引入了一种实体识别的方法,利用义原相似度评估的方法对该模型进行扩展和微调。随后,探讨了把匹配器(Matcher)组件添加进spaCy管道并结合Adam神经网络优化器进行实体关系提取的方法。经验证,上述方法在特定领域对实体和实体关系的识别度比spaCy基础预训练模型有所提升,较好解决了军事领域标记预料不足的问题,为军事领域问答系统的开发与应用提供了可靠的借鉴。 展开更多
关键词 spaCy 训练模型 实体识别 义原相似度 MATCHER
在线阅读 下载PDF
上一页 1 2 11 下一页 到第
使用帮助 返回顶部