期刊文献+
共找到15篇文章
< 1 >
每页显示 20 50 100
基于全域信息融合和多维关系感知的命名实体识别模型 被引量:1
1
作者 胡婕 武帅星 +1 位作者 曹芝兰 张龑 《计算机应用》 北大核心 2025年第5期1511-1519,共9页
现有的基于双向长短时记忆(BiLSTM)网络的命名实体识别(NER)模型难以全面理解文本的整体语义以及捕捉复杂的实体关系。因此,提出一种基于全域信息融合和多维关系感知的NER模型。首先,通过BERT(Bidirectional Encoder Representations fr... 现有的基于双向长短时记忆(BiLSTM)网络的命名实体识别(NER)模型难以全面理解文本的整体语义以及捕捉复杂的实体关系。因此,提出一种基于全域信息融合和多维关系感知的NER模型。首先,通过BERT(Bidirectional Encoder Representations from Transformers)获取输入序列的向量表示,并结合BiLSTM进一步学习输入序列的上下文信息。其次,提出由梯度稳定层和特征融合模块组成的全域信息融合机制:前者使模型保持稳定的梯度传播并更新优化输入序列的表示,后者则融合BiLSTM的前后向表示获取更全面的特征表示。接着,构建多维关系感知结构学习不同子空间单词的关联性,以捕获文档中复杂的实体关系。此外,使用自适应焦点损失函数动态调整不同类别实体的权重,提高模型对少数类实体的识别性能。最后,在7个公开数据集上将所提模型和11个基线模型进行对比,实验结果表明所提模型的F1值均优于对比模型,可见该模型的综合性较优。 展开更多
关键词 命名实体识别 全域信息融合机制 梯度稳定层 多维关系感知 自适应焦点损失
在线阅读 下载PDF
基于多标签关系图和局部动态重构学习的多标签分类模型
2
作者 胡婕 郑启扬 +1 位作者 孙军 张龑 《计算机应用》 北大核心 2025年第4期1104-1112,共9页
在多标签分类任务中,现有模型对依赖关系的构建主要考虑标签在训练集中是否共现,而忽视了标签之间各种不同类型的关系以及在不同样本中的动态交互关系。因此,结合多标签关系图和局部动态重构图学习更完整的标签依赖关系。首先,根据标签... 在多标签分类任务中,现有模型对依赖关系的构建主要考虑标签在训练集中是否共现,而忽视了标签之间各种不同类型的关系以及在不同样本中的动态交互关系。因此,结合多标签关系图和局部动态重构图学习更完整的标签依赖关系。首先,根据标签的全局共现关系,采用数据驱动的方式构建多标签关系图,学习标签之间不同类型的依赖关系;其次,通过标签注意力机制探索文本信息和标签语义的关联性;最后,对标签图进行动态重构学习,以捕获标签之间的局部特定关系。在3个公开数据集BibTeX、Delicious和Reuters-21578上的实验结果表明,所提模型的宏平均F1(maF1)值相较于MrMP(Multi-relation Message Passing)分别提高了1.6、1.0和2.2个百分点,综合性能得到提升。 展开更多
关键词 多标签分类 多标签关系图 标签依赖关系 局部动态重构图 标签注意力机制
在线阅读 下载PDF
基于回指与逻辑推理的文档级关系抽取模型
3
作者 胡婕 吴翠 +1 位作者 孙军 张龑 《计算机应用》 北大核心 2025年第5期1496-1503,共8页
在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transfor... 在文档级关系抽取(DocRE)任务中,现有模型主要侧重于学习文档中实体间的交互,忽略了对实体内部结构的学习,并很少关注到文档中的代词指代识别问题以及对逻辑规则的应用,这导致模型对文档中实体间关系的建模不够准确。因此,基于Transformer的架构融合关系回指图,建模实体间交互和实体内部结构,从而利用回指将更多上下文信息聚合到相应实体上以提高关系抽取的准确性。此外,采用数据驱动方式从关系注释中挖掘逻辑规则,增强对文本隐含逻辑关系的理解和推理能力。针对样本不平衡问题,引入加权长尾损失函数提高对稀有关系的识别准确性。在2个公开数据集DocRED(Document-level Relation Extraction Dataset)和Re-DocRED(Revisiting Documentlevel Relation Extraction Dataset)上的实验结果表明,所提模型性能表现最优,在DocRED测试集上,基于BERT编码器的模型的IgnF1和F1值比基线模型ATLOP(Adaptive Thresholding and Localized cOniext Pooling)分别提高了1.79和2.09个百分点,可见所提模型的综合性能较高。 展开更多
关键词 文档级关系抽取 关系回指图 逻辑规则 样本不平衡 加权长尾损失函数
在线阅读 下载PDF
基于语义前缀微调的零样本对话状态跟踪领域迁移模型
4
作者 孙雨阳 张敏婕 胡婕 《计算机应用》 北大核心 2025年第7期2221-2228,共8页
零样本对话状态跟踪(DST)需要在缺乏标注数据时将已有模型迁移至新领域。现有的相关方法在执行领域迁移时常常难以捕捉对话文本中的上下文联系,导致相关模型在面对未知领域时的泛化能力不足。针对上述问题,提出一种基于语义前缀微调的... 零样本对话状态跟踪(DST)需要在缺乏标注数据时将已有模型迁移至新领域。现有的相关方法在执行领域迁移时常常难以捕捉对话文本中的上下文联系,导致相关模型在面对未知领域时的泛化能力不足。针对上述问题,提出一种基于语义前缀微调的零样本DST领域迁移模型。首先,利用槽位描述生成初始前缀,确保前缀与对话文本的紧密语义联系;其次,融合前缀位置与领域信息,生成能整合模型内部知识和领域信息的前缀;再次,根据对话内容的复杂性动态调整前缀长度,增强模型对上下文内容的敏感性;最后,通过全局式前缀插入增强模型对历史对话的全局记忆能力。实验结果表明,相较于Prompter模型,所提模型在MultiWOZ2.1数据集的Restaurant、Taxi和Train领域上的联合目标准确率(JGA)分别提高了5.50、0.90和7.50个百分点,在SGD数据集的Messaging、Payment和Trains领域上的JGA分别提高了0.65、14.51和0.65个百分点。可见,所提模型的零样本场景下DST任务的上下文理解能力和泛化迁移性能得到了有效提升。 展开更多
关键词 对话状态跟踪 零样本学习 领域迁移 前缀微调 参数高效迁移学习
在线阅读 下载PDF
基于增强句法信息与多特征图卷积融合的方面级情感分析
5
作者 田继帅 艾芳菊 《计算机科学与探索》 北大核心 2025年第3期738-748,共11页
方面级情感分析作为情感计算领域的重要任务,旨在识别文本中关于特定方面的情感倾向。为了提高在这一任务中的性能,提出了一种增强句法信息与多特征图卷积融合的网络模型(ESMFGCN),利用依赖树表示句子中单词之间的语法结构关系,由于单... 方面级情感分析作为情感计算领域的重要任务,旨在识别文本中关于特定方面的情感倾向。为了提高在这一任务中的性能,提出了一种增强句法信息与多特征图卷积融合的网络模型(ESMFGCN),利用依赖树表示句子中单词之间的语法结构关系,由于单纯地使用依赖树方法在建模时会引发不相关的噪声问题,引入了短语结构树,并将短语树转化为层级短语矩阵,并将由依赖树构造的邻接矩阵和层级短语矩阵合并作为图卷积网络的初始矩阵,用于增强句法信息。为了更精细地捕捉方面词与整个句子之间的关联,引入了注意力机制,对方面词上下文和整个句子建立更为精细的关联,并通过图卷积网络提取语义信息。设计融合层用于融合语义信息与句法信息,从而提高方面级情感分析的准确性和鲁棒性。在Restaurant、Laptop、Twitter数据集上分别设计对比实验、消融实验和敏感性分析实验,实验结果表明,相较于其他研究方法,该方法取得了显著的性能提升,证明了模型的有效性和优越性。 展开更多
关键词 方面级情感分析 句法特征 注意力机制 图卷积网络
在线阅读 下载PDF
基于知识增强和提示学习的小样本新闻主题分类方法 被引量:2
6
作者 余新言 曾诚 +2 位作者 王乾 何鹏 丁晓玉 《计算机应用》 CSCD 北大核心 2024年第6期1767-1774,共8页
基于预训练微调的分类方法通常需要大量带标注的数据,导致无法应用于小样本分类任务。因此,针对中文小样本新闻主题分类任务,提出一种基于知识增强和提示学习的分类方法KPL(Knowledge enhancement and Prompt Learning)。首先,利用预训... 基于预训练微调的分类方法通常需要大量带标注的数据,导致无法应用于小样本分类任务。因此,针对中文小样本新闻主题分类任务,提出一种基于知识增强和提示学习的分类方法KPL(Knowledge enhancement and Prompt Learning)。首先,利用预训练模型在训练集上学习最优的提示模板;其次,将提示模板与输入文本结合,使分类任务转化为完形填空任务;同时利用外部知识扩充标签词空间,丰富标签词的语义信息;最后,对预测的标签词与原始的标签进行映射。通过在THUCNews、SHNews和Toutiao这3个新闻数据集上进行随机采样,形成小样本训练集和验证集进行实验。实验结果表明,所提方法在上述数据集上的1-shot、5-shot、10-shot和20-shot任务上整体表现有所提升,尤其在1-shot任务上提升效果突出,与基线小样本分类方法相比,准确率分别提高了7.59、2.11和3.10个百分点以上,验证了KPL在小样本新闻主题分类任务上的有效性。 展开更多
关键词 新闻主题分类 提示学习 知识增强 小样本学习 文本分类
在线阅读 下载PDF
基于RoBERTa-RCNN和注意力池化的新闻主题文本分类 被引量:4
7
作者 王乾 曾诚 +2 位作者 何鹏 张海丰 余新言 《郑州大学学报(理学版)》 CAS 北大核心 2024年第2期43-50,共8页
针对中文新闻主题因缺乏上下文信息而造成语义模糊和用词规范性不高的问题,提出一种基于RoBERTa-RCNN和多头注意力池化机制的新闻主题文本分类方法。利用数据增强技术对部分训练数据进行回译处理,再通过自编码预训练模型和RCNN对文本进... 针对中文新闻主题因缺乏上下文信息而造成语义模糊和用词规范性不高的问题,提出一种基于RoBERTa-RCNN和多头注意力池化机制的新闻主题文本分类方法。利用数据增强技术对部分训练数据进行回译处理,再通过自编码预训练模型和RCNN对文本进行初步和深度的特征提取,并结合多头注意力思想改进最大池化层。该方法采用融合机制,改善了RCNN中最大池化策略单一和无法进行动态优化的缺陷。在三个新闻主题数据集上进行实验,使用更适用于新闻主题分类的Mish函数代替ReLU函数,并利用标签平滑来解决过拟合问题。结果表明,所提方法相比传统分类方法效果突出,并通过消融实验验证了模型在分类任务上的可行性。 展开更多
关键词 预训练语言模型 文本分类 循环卷积神经网络 注意力机制 标签平滑 数据增强
在线阅读 下载PDF
基于感受野扩展残差注意力网络的图像超分辨率重建
8
作者 郭琳 刘坤虎 +2 位作者 马晨阳 来佑雪 徐映芬 《计算机应用》 CSCD 北大核心 2024年第5期1579-1587,共9页
针对现有残差网络存在残差特征利用不充分、细节丢失的问题,提出一种结合两层残差聚合结构和感受野扩展双注意力机制的深度神经网络模型,用于单幅图像超分辨率(SISR)重建。该模型通过跳跃连接形成两层嵌套的残差聚合网络结构,对网络各... 针对现有残差网络存在残差特征利用不充分、细节丢失的问题,提出一种结合两层残差聚合结构和感受野扩展双注意力机制的深度神经网络模型,用于单幅图像超分辨率(SISR)重建。该模型通过跳跃连接形成两层嵌套的残差聚合网络结构,对网络各层提取的大量残差信息进行分层聚集和融合,能减少包含图像细节的残差信息的丢失。同时,设计一种多尺度感受野扩展模块,能捕获更大范围、不同尺度的上下文相关信息,促进深层残差特征的有效提取;并引入空间-通道双注意力机制,增强残差网络的判别性学习能力,提高重建图像质量。在数据集Set5、Set14、BSD100和Urban100上进行重建实验,并从客观指标和主观视觉效果上将所提模型与主流模型进行比较。客观评价结果表明,所提模型在全部4个测试数据集上均优于对比模型,其中,相较于经典的超分辨率卷积神经网络(SRCNN)模型和性能次优的对比模型ISRN(Iterative Super-Resolution Network),在放大2倍、3倍、4倍时的平均峰值信噪比(PSNR)分别提升1.91、1.71、1.61 dB和0.06、0.04、0.04 dB;视觉效果对比显示,所提模型恢复的图像细节纹理更清晰。 展开更多
关键词 图像超分辨率 残差网络 感受野 深度学习 注意力
在线阅读 下载PDF
基于会话的多粒度图神经网络推荐模型 被引量:14
9
作者 任俊伟 曾诚 +2 位作者 肖丝雨 乔金霞 何鹏 《计算机应用》 CSCD 北大核心 2021年第11期3164-3170,共7页
基于会话的推荐旨在根据当前用户的匿名会话的点击序列信息来预测用户的下一次点击行为。现有方法多数都是通过对用户会话点击序列的物品信息进行建模,并学习物品的向量表示,进而进行推荐。而作为一种粗粒度的信息,物品的类别信息对物... 基于会话的推荐旨在根据当前用户的匿名会话的点击序列信息来预测用户的下一次点击行为。现有方法多数都是通过对用户会话点击序列的物品信息进行建模,并学习物品的向量表示,进而进行推荐。而作为一种粗粒度的信息,物品的类别信息对物品有聚合作用,可作为物品信息的重要补充。基于此,提出了基于会话的多粒度图神经网络推荐模型(SRMGNN)。首先,使用图神经网络(GNN)得到会话序列中的物品和物品类别的嵌入向量表示,并使用注意力网络捕捉用户的注意力信息;然后,将赋予了不同注意力权重值的物品和物品类别信息进行融合后,输入到门限循环单元(GRU)里;最后,通过GRU学习会话序列的物品时序信息,并给出推荐列表。在公开的Yoochoose数据集和Diginetica数据集上进行实验,实验结果验证了该模型在增加了物品类别信息后的优势,且实验结果表明了在Precision@20和MRR@20这2种评价指标上,该模型相较于短期注意力/记忆优先级(STAMP)模型、神经注意力(NARM)模型、GRU4REC等8种模型均有更好的效果。 展开更多
关键词 基于会话的推荐 多粒度 推荐模型 图神经网络 点击序列
在线阅读 下载PDF
结合广义自回归预训练语言模型与循环卷积神经网络的文本情感分析方法 被引量:10
10
作者 潘列 曾诚 +3 位作者 张海丰 温超东 郝儒松 何鹏 《计算机应用》 CSCD 北大核心 2022年第4期1108-1115,共8页
传统的机器学习方法在对网络评论文本进行情感极性分类时,未能充分挖掘语义信息和关联信息,而已有的深度学习方法虽能提取语义信息和上下文信息,但该过程往往是单向的,在获取评论文本的深层语义信息过程中存在不足。针对以上问题,提出... 传统的机器学习方法在对网络评论文本进行情感极性分类时,未能充分挖掘语义信息和关联信息,而已有的深度学习方法虽能提取语义信息和上下文信息,但该过程往往是单向的,在获取评论文本的深层语义信息过程中存在不足。针对以上问题,提出了一种结合广义自回归预训练语言模型(XLNet)与循环卷积神经网络(RCNN)的文本情感分析方法。首先,利用XLNet对文本进行特征表示,并通过引入片段级递归机制和相对位置信息编码,充分利用了评论文本的语境信息,从而有效提升了文本特征的表达能力;然后,利用RCNN对文本特征进行双向训练,并在更深层次上提取文本的上下文语义信息,从而提升了在情感分析任务中的综合性能。所提方法分别在三个公开数据集weibo-100k、waimai-10k和ChnSentiCorp上进行了实验,准确率分别达到了96.4%、91.8%和92.9%。实验结果证明了所提方法在情感分析任务中的有效性。 展开更多
关键词 评论文本 情感分析 XLNet 片段级递归机制 循环卷积神经网络
在线阅读 下载PDF
基于混合注意力模型的阴影检测方法 被引量:3
11
作者 谭道强 曾诚 +1 位作者 乔金霞 张俊 《计算机应用》 CSCD 北大核心 2021年第7期2076-2081,共6页
图像中阴影区域的存在会导致图像内容的不确定性,不利于其他计算机视觉任务,因此常将阴影检测作为计算机视觉算法的预处理过程。然而,现有的阴影检测算法大多采用多级网络结构,导致模型训练困难,虽然已经提出了一些采用单级网络结构的算... 图像中阴影区域的存在会导致图像内容的不确定性,不利于其他计算机视觉任务,因此常将阴影检测作为计算机视觉算法的预处理过程。然而,现有的阴影检测算法大多采用多级网络结构,导致模型训练困难,虽然已经提出了一些采用单级网络结构的算法,但它们只关注了局部的阴影,忽略了阴影之间的联系。针对该问题,为提升阴影检测的准确率和鲁棒性,提出了基于混合注意力模型的阴影检测方法。首先将预训练后的深层网络ResNext101作为前端特征提取网络,提取图像的基本特征;其次采用双向金字塔结构由浅入深、由深到浅的方式进行特征融合,并提出信息补偿机制减少深层语义信息丢失;然后结合空间注意力和通道注意力提出混合注意力模型进行特征融合,捕捉阴影区域和非阴影区域的差异;最后融合两个方向的预测结果从而得到最终的阴影检测结果。在公开数据集SBU、UCF上对所提方法进行可行性对比实验,结果表明,相较于DSC算法,所提方法的平衡误差率(BER)分别降低了30%和11%,说明它能够较好地抑制阴影错误检测并增强阴影细节。 展开更多
关键词 阴影检测 卷积神经网络 空间注意力 通道注意力 信息补偿机制 双向金字塔结构
在线阅读 下载PDF
结合BERT和特征投影网络的新闻主题文本分类方法 被引量:22
12
作者 张海丰 曾诚 +3 位作者 潘列 郝儒松 温超东 何鹏 《计算机应用》 CSCD 北大核心 2022年第4期1116-1124,共9页
针对新闻主题文本用词缺乏规范、语义模糊、特征稀疏等问题,提出了结合BERT和特征投影网络(FPnet)的新闻主题文本分类方法。该方法包含两种实现方式:方式1将新闻主题文本在BERT模型的输出进行多层全连接层特征提取,并将最终提取到的文... 针对新闻主题文本用词缺乏规范、语义模糊、特征稀疏等问题,提出了结合BERT和特征投影网络(FPnet)的新闻主题文本分类方法。该方法包含两种实现方式:方式1将新闻主题文本在BERT模型的输出进行多层全连接层特征提取,并将最终提取到的文本特征结合特征投影方法进行提纯,从而强化分类效果;方式2在BERT模型内部的隐藏层中融合特征投影网络进行特征投影,从而通过隐藏层特征投影强化提纯分类特征。在今日头条、搜狐新闻、THUCNews-L、THUCNews-S数据集上进行实验,实验结果表明上述两种方式相较于基线BERT方法在准确率、宏平均F1值上均具有更好的表现,准确率最高分别为86.96%、86.17%、94.40%和93.73%,验证了所提方法的可行性和有效性。 展开更多
关键词 预训练语言模型 文本分类 新闻主题 BERT 特征投影网络
在线阅读 下载PDF
基于ALBERT-CRNN的弹幕文本情感分析 被引量:23
13
作者 曾诚 温超东 +2 位作者 孙瑜敏 潘列 何鹏 《郑州大学学报(理学版)》 北大核心 2021年第3期1-8,共8页
提出一种结合ALBERT预训练语言模型与卷积循环神经网络(convolutional recurrent neural network,CRNN)的弹幕文本情感分析模型ALBERT-CRNN。首先使用ALBERT预训练语言模型获取弹幕文本的动态特征表示,使得句子中同一个词在不同上下文... 提出一种结合ALBERT预训练语言模型与卷积循环神经网络(convolutional recurrent neural network,CRNN)的弹幕文本情感分析模型ALBERT-CRNN。首先使用ALBERT预训练语言模型获取弹幕文本的动态特征表示,使得句子中同一个词在不同上下文语境中具有不同的词向量表达;然后利用CRNN对特征进行训练,充分考虑了文本中的局部特征信息和上下文语义关联;最后通过Softmax函数得出弹幕文本的情感极性。在哔哩哔哩、爱奇艺和腾讯视频三个视频平台的弹幕文本数据集上进行实验,结果表明,ALBERT-CRNN模型在三个数据集上的准确率分别达到94.3%、93.5%和94.8%,相比一些传统模型具有更好的效果。 展开更多
关键词 弹幕文本 情感分析 词向量 预训练语言模型 卷积循环神经网络
在线阅读 下载PDF
基于通道注意递归残差网络的图像超分辨率重建 被引量:3
14
作者 郭琳 李晨 +3 位作者 陈晨 赵睿 范仕霖 徐星雨 《计算机科学》 CSCD 北大核心 2021年第8期139-144,共6页
近年来,深度学习被广泛应用于图像超分辨率重建。针对基于深度学习的超分辨率重建方法存在的特征提取不充分、细节丢失和梯度消失等问题,提出一种基于通道注意的递归残差深度神经网络模型,用于单幅图像的超分辨率重建。该模型采用残差... 近年来,深度学习被广泛应用于图像超分辨率重建。针对基于深度学习的超分辨率重建方法存在的特征提取不充分、细节丢失和梯度消失等问题,提出一种基于通道注意的递归残差深度神经网络模型,用于单幅图像的超分辨率重建。该模型采用残差嵌套网络和跳跃连接构成一种简洁的递归残差网络结构,能够加快深层网络的收敛,同时避免网络退化和梯度问题。在特征提取部分,引入注意力机制来提升网络的判别性学习能力,以提取到更准确、有效的深层残差特征;随后结合并行映射重建网络,最终实现超分辨率重建。在数据集Set5,Set14,B100和Urban100上进行放大2倍、3倍和4倍的重建测试实验,并从客观指标和主观视觉效果上将所提方法与主流方法进行比较。实验结果显示,所提方法在全部4个测试数据集上的客观指标较对比方法均有明显提升,其中,相比插值法和SRCNN算法,在放大2倍、3倍、4倍时所提方法的平均PSNR值分别提升了3.965 dB和1.56 dB、3.19dB和1.42 dB、2.79 dB和1.32 dB。视觉效果对比也表明所提方法能更好地恢复图像细节。 展开更多
关键词 超分辨率 深度学习 通道注意 残差网络 跳跃连接
在线阅读 下载PDF
多阅读器协作的RFID标签树形防碰撞算法 被引量:3
15
作者 宋建华 何帅 姚慧 《电子学报》 EI CAS CSCD 北大核心 2020年第8期1558-1564,共7页
在物联网复杂的应用环境中,射频识别技术中的标签碰撞问题作为造成其系统标签识别时间长,通信量大等问题的主要原因,已成为近年来本领域的核心研究热点之一.针对以上问题,本文提出一种多阅读器协作的树形防碰撞算法:在第一阶段,根据位... 在物联网复杂的应用环境中,射频识别技术中的标签碰撞问题作为造成其系统标签识别时间长,通信量大等问题的主要原因,已成为近年来本领域的核心研究热点之一.针对以上问题,本文提出一种多阅读器协作的树形防碰撞算法:在第一阶段,根据位追踪技术能够识别标签碰撞位的特点,阅读器通过判别待识别标签中的碰撞位,从待广播节点中删除已验证的无效节点;在第二阶段的循环广播中,阅读器间通过共享每次的广播的前缀与当次广播结果对自身的树形结构进行不断优化,优化策略是为每一个阅读器分配一个待广播节点队列,通过共享的信息计算待广播节点中含有标签的概率,依据其概率调整队列中待广播节点的优先级,并不断地删除无需广播的节点.在下一轮广播中阅读器选取含有标签概率最大的节点进行广播.仿真实验结果表明:提出的算法的平均标签识别效率达到59.9%,并且在总时隙数量方面有一定优势. 展开更多
关键词 射频识别 标签识别 多阅读器 二叉树 防碰撞
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部