期刊文献+
共找到93篇文章
< 1 2 5 >
每页显示 20 50 100
基于弱监督模态语义增强的多模态有害信息检测方法
1
作者 刘晋文 王磊 +4 位作者 马博 董瑞 杨雅婷 艾合塔木江·艾合麦提 王欣乐 《计算机应用》 北大核心 2025年第10期3146-3153,共8页
社交媒体上多模态有害信息的泛滥不仅损害公众利益,还严重扰乱社会秩序,亟需有效的检测方法。现有研究依赖预训练模型提取与融合多模态特征,忽视了通用语义在有害信息检测任务中的局限性,且未能充分考虑有害信息复杂多变的组合形式。为... 社交媒体上多模态有害信息的泛滥不仅损害公众利益,还严重扰乱社会秩序,亟需有效的检测方法。现有研究依赖预训练模型提取与融合多模态特征,忽视了通用语义在有害信息检测任务中的局限性,且未能充分考虑有害信息复杂多变的组合形式。为此,提出一种基于弱监督模态语义增强的多模态有害信息检测方法(weak-S),所提方法通过引入弱监督模态信息辅助多模态特征的有害语义对齐,并设计一种低秩双线性池化的多模态门控集成机制,以区分不同信息的贡献度。实验结果表明,所提方法在Harm-P和MultiOFF数据集上的F1值相较于SOTA(StateOf-The-Art)模型分别提高了2.2和3.2个百分点,验证了弱监督模态语义在多模态有害信息检测中的重要性。此外,所提方法在多模态夸张检测任务上取得了泛化性能的提升。 展开更多
关键词 单模态弱监督 对比学习 门控集成 多模态 有害信息检测
在线阅读 下载PDF
基于标签句子重构的多语言零样本神经机器翻译
2
作者 陈潇 杨雅婷 +3 位作者 董瑞 时现伟 马博 吐尔洪·吾司曼 《中文信息学报》 北大核心 2025年第2期80-88,共9页
针对当前多语言零样本翻译的标签策略难以提供丰富的翻译方向信息和模型对语言建模能力的不足,进而导致翻译脱靶的问题,该文提出了使用标签句子重构的多语言零样本神经机器翻译方法。具体而言,首先提出了一种词级别的标签策略,在编码器... 针对当前多语言零样本翻译的标签策略难以提供丰富的翻译方向信息和模型对语言建模能力的不足,进而导致翻译脱靶的问题,该文提出了使用标签句子重构的多语言零样本神经机器翻译方法。具体而言,首先提出了一种词级别的标签策略,在编码器端增加目标语言标签嵌入,在源语言句子每个词的嵌入表示中注入目标语言信息;其次设计了标签句子重构任务,对句子添加噪声和使用词级别的标签策略后进行重构操作,以达到增强模型语言建模能力的目的。在MultiUN数据集和Europarl数据集上的零样本实验结果表明,所提方法在零样本翻译上的平均BLEU值分别超过强基线0.7和0.3。消融实验结果表明,所提出的语言标签嵌入策略和标签句子重构均能有效提升模型的零样本翻译性能。 展开更多
关键词 零样本机器翻译 多语言神经机器翻译 自然语言处理
在线阅读 下载PDF
基于Fabric的海量交易数据上链预处理机制 被引量:2
3
作者 刘颖 马玉鹏 +2 位作者 赵凡 王轶 蒋同海 《计算机工程》 CSCD 北大核心 2024年第1期39-49,共11页
Hyperledger Fabric是一种国内外广泛使用的联盟链框架,在基于Fabric技术的一些业务中具有协同组织众多、交易操作频繁、事务冲突增加等特点。Fabric采用的多版本并发控制技术能够在一定程度上解决部分交易冲突,提升系统并发性,但其机... Hyperledger Fabric是一种国内外广泛使用的联盟链框架,在基于Fabric技术的一些业务中具有协同组织众多、交易操作频繁、事务冲突增加等特点。Fabric采用的多版本并发控制技术能够在一定程度上解决部分交易冲突,提升系统并发性,但其机制不完善,会出现部分交易数据无法正常上链存储的问题。为了实现海量交易数据完整、高效、可信的上链存储,提出一种基于Fabric预言机的数据上链预处理机制。设计海量数据冲突预处理(MCPP)方法,通过检测、监听、延时提交、事务加锁、重排序缓存等方式实现主键冲突交易数据的完整上链。引入数据传输保障措施,在传输过程中利用非对称加密技术防止恶意节点伪造认证信息,确保交易数据链外处理前后的一致性。通过理论分析和实验结果表明,该机制可有效解决联盟链平台中海量交易数据上链时的并发冲突问题,当交易数据规模达到1 000和10 000时,MCPP的时效性比LMLS提高了38%和21.4%,且成功率接近100%,具有高效性和安全性,同时在无并发冲突情况下不影响Fabric系统性能。 展开更多
关键词 联盟链 Hyperledger Fabric平台 预言机 海量交易数据 并发冲突 数据传输
在线阅读 下载PDF
基于去中心化索引的区块链时空数据查询方法 被引量:1
4
作者 李俊杰 周喜 +2 位作者 马玉鹏 王保全 王轶 《计算机工程与设计》 北大核心 2025年第3期641-647,共7页
为提高区块链上时空数据查询效率,结合布谷鸟过滤器思想,提出一种基于去中心化索引的区块链时空数据查询方法。采用Geohash算法为链上时空数据建立聚集性空间数据编码,通过计算编码前缀和分布式哈希表间距离构建去中心化索引网络,设计... 为提高区块链上时空数据查询效率,结合布谷鸟过滤器思想,提出一种基于去中心化索引的区块链时空数据查询方法。采用Geohash算法为链上时空数据建立聚集性空间数据编码,通过计算编码前缀和分布式哈希表间距离构建去中心化索引网络,设计共轭布谷鸟时空索引结构实现对区块链时空数据的高效索引查询。实验通过搭建Hyperledger Fabric区块链网络,使用公开数据集验证方法的有效性,相较于已有代表性方案取得了查询效率的提升。 展开更多
关键词 区块链 区块链数据管理 时空数据 时空索引 超级账本 去中心化网络 布谷鸟过滤器
在线阅读 下载PDF
基于语义增强与候选排序优化的背景感知事件预测方法
5
作者 马荣 马博 +3 位作者 王震 艾孜麦提·艾尼瓦尔 杨雅婷 王磊 《计算机应用研究》 北大核心 2025年第9期2599-2606,共8页
事件预测旨在结合事件的语义信息与结构关系,实现对未来事件的精准推断。针对现有图神经网络方法中存在语义捕捉不足及外部知识整合有限的问题,提出一种基于语义增强与候选排序优化的背景感知事件预测方法(SECRO)。该方法采用三阶段框架... 事件预测旨在结合事件的语义信息与结构关系,实现对未来事件的精准推断。针对现有图神经网络方法中存在语义捕捉不足及外部知识整合有限的问题,提出一种基于语义增强与候选排序优化的背景感知事件预测方法(SECRO)。该方法采用三阶段框架:首先,利用大语言模型生成高质量的事件节点嵌入,弥补语义表达的不足;其次,基于图神经网络建模事件间的结构与关联关系,生成初步预测结果;最后,设计了一种候选排序优化机制,结合大语言模型中蕴涵的世界知识提升事件预测精度。在三个公开数据集上的实验结果表明,该方法在平均排名分数(MRR)上分别较RGCN和SeCoGD方法提升了8.34和6.84个百分点,取得了新的SOTA性能。扩展实验结果进一步验证了该方法能够增强现有图方法在事件预测任务中的性能。 展开更多
关键词 语义增强 事件预测 图神经网络 大语言模型
在线阅读 下载PDF
基于递归神经网络的语音识别快速解码算法 被引量:17
6
作者 张舸 张鹏远 +1 位作者 潘接林 颜永红 《电子与信息学报》 EI CSCD 北大核心 2017年第4期930-937,共8页
递归神经网络(Recurrent Neural Network,RNN)如今已经广泛用于自动语音识别(Automatic Speech Recognition,ASR)的声学建模。虽然其较传统的声学建模方法有很大优势,但相对较高的计算复杂度限制了这种神经网络的应用,特别是在实时应用... 递归神经网络(Recurrent Neural Network,RNN)如今已经广泛用于自动语音识别(Automatic Speech Recognition,ASR)的声学建模。虽然其较传统的声学建模方法有很大优势,但相对较高的计算复杂度限制了这种神经网络的应用,特别是在实时应用场景中。由于递归神经网络采用的输入特征通常有较长的上下文,因此利用重叠信息来同时降低声学后验和令牌传递的时间复杂度成为可能。该文介绍了一种新的解码器结构,通过有规律抛弃存在重叠的帧来获得解码过程中的计算开销降低。特别地,这种方法可以直接用于原始的递归神经网络模型,只需对隐马尔可夫模型(Hidden Markov Model,HMM)结构做小的变动,这使得这种方法具有很高的灵活性。该文以时延神经网络为例验证了所提出的方法,证明该方法能够在精度损失相对较小的情况下取得2~4倍的加速比。 展开更多
关键词 语音识别 递归神经网络 解码器 跳帧计算
在线阅读 下载PDF
多任务增强的文本生成式事件要素抽取方法
7
作者 史张龙 周喜 +2 位作者 王震 马博 杨雅婷 《计算机工程与应用》 北大核心 2025年第9期168-176,共9页
事件要素抽取旨在从非结构化文本中抽取结构化的事件数据,为下游任务提供结构化输入。近年来,许多研究采用预训练语言模型加提示学习的方式实现事件要素抽取,以模板槽位填空的形式完成该任务。然而,以往的研究主要采用单模板单任务的方... 事件要素抽取旨在从非结构化文本中抽取结构化的事件数据,为下游任务提供结构化输入。近年来,许多研究采用预训练语言模型加提示学习的方式实现事件要素抽取,以模板槽位填空的形式完成该任务。然而,以往的研究主要采用单模板单任务的方法,但单一模板难以很好地捕捉事件要素实体间的结构依赖关系,其设计质量会影响最终的抽取结果;并且忽视了在进行多任务学习时,相似任务之间的促进作用。因此,设计了一种基于多任务增强的文本生成式事件要素抽取方法。具体地,分别构建了多模板指令增强任务模块与跨任务协同增强任务模块,以生成式模型作为共享主干网络,多种任务统一训练实现知识高效共享。该方法通过不同模板的指令增强,加强额外语义约束,提高了模型对指令的理解能力,通过跨任务的协同增强,使模型通过不同任务的互相监督,提高了模型对事件文本的理解分析能力。在ACE05数据集和RAMS数据集上的全样本实验中,该方法的Arg-C值分别达到了74.1%和52.4%,达到了最优水平。同时具有优异的少样本性能,在少样本场景下实验,仅需一半的数据量就可以达到阅读理解方法的抽取效果。 展开更多
关键词 事件要素抽取 信息抽取 提示学习 多任务学习 自然语言处理
在线阅读 下载PDF
一种融合数据新鲜度的联邦学习动态激励机制
8
作者 达吾列·金恩斯别克 王轶 +1 位作者 周喜 王晓博 《计算机应用研究》 北大核心 2025年第8期2497-2502,共6页
在多轮联邦学习中,训练环境不断变化,基于多智能体强化学习(MARL)的激励机制通过自适应动态调整数据贡献策略,能够更好地适应动态环境。然而,现有基于MARL的激励机制在贡献评估时主要关注数据量,忽视了数据新鲜度,导致贡献评估不全面,... 在多轮联邦学习中,训练环境不断变化,基于多智能体强化学习(MARL)的激励机制通过自适应动态调整数据贡献策略,能够更好地适应动态环境。然而,现有基于MARL的激励机制在贡献评估时主要关注数据量,忽视了数据新鲜度,导致贡献评估不全面,限制了整体收益和模型性能。针对这一问题,提出了一种融合数据新鲜度的联邦学习动态激励机制。首先,提出了数据新鲜度度量及收益评估方法,以更全面地衡量数据贡献;其次,采用集中式训练与分布式执行的MARL框架,有效避免了参与方协调性不足的问题,以此最大化整体收益。实验结果表明,在五个不同规模的公开数据集上,所提方法整体收益提升约11.1%~25.0%。对比实验和消融实验结果进一步验证了该方法在不同数据质量条件下评估的公平性和有效性。 展开更多
关键词 联邦学习 激励机制 多智能体强化学习 数据新鲜度
在线阅读 下载PDF
易混淆样本驱动的簇间分布优化短文本聚类
9
作者 恩卡尔·奴尔太 马博 +3 位作者 王震 艾孜麦提·艾尼瓦尔 吐尔洪·吾司曼 杨雅婷 《计算机应用研究》 北大核心 2025年第10期2996-3004,共9页
短文本聚类旨在将无标签的短文本实例划分为不同的语义簇。针对该任务中易混淆样本难以有效区分以及语义相近簇间特征分布重叠的挑战,提出了一种易混淆样本驱动的簇间分布优化短文本聚类方法。该方法首先基于信息熵采样不确定性较高的... 短文本聚类旨在将无标签的短文本实例划分为不同的语义簇。针对该任务中易混淆样本难以有效区分以及语义相近簇间特征分布重叠的挑战,提出了一种易混淆样本驱动的簇间分布优化短文本聚类方法。该方法首先基于信息熵采样不确定性较高的样本作为易混淆样本,并选取其邻近簇样本构建候选集;随后引入大语言模型进行语义判别,构造“易混淆样本-正样本-负样本”三元组;同时,采用参数随机扰动机制为每个样本生成自身正例;最终在对比学习框架下实施簇间分布联合优化。在四个公开短文本数据集上的实验结果表明,与现有先进模型相比,所提方法的聚类效果均有提升,平均准确率提高了5.14%,平均标准互信息提升了2.51%。通过实验结果的分析,进一步验证了该方法不仅显著提升了模型对簇间易混淆样本的语义辨别能力,而且有效缓解了语义相似簇间的特征分布重叠问题。 展开更多
关键词 易混淆样本 短文本聚类 大语言模型 对比学习
在线阅读 下载PDF
动态模式约束的多领域对话状态追踪模型
10
作者 艾比布拉·阿塔伍拉 杨奉毅 +3 位作者 杨雅婷 王轶 艾孜麦提·艾尼瓦尔 周喜 《小型微型计算机系统》 北大核心 2025年第5期1056-1063,共8页
对话状态追踪是任务型对话系统的核心模块,其目的在于跟踪用户与系统对话中产生的对话状态.对话过程中,槽位之间存在共指、共现等关联关系,现有研究通常通过构建由领域、槽位组成的模式图结构对此关系建模.然而,该建模方式没有考虑模式... 对话状态追踪是任务型对话系统的核心模块,其目的在于跟踪用户与系统对话中产生的对话状态.对话过程中,槽位之间存在共指、共现等关联关系,现有研究通常通过构建由领域、槽位组成的模式图结构对此关系建模.然而,该建模方式没有考虑模式图在不同对话语境下的动态演化,导致噪声信息在不相关的槽位中传播,造成模型性能下降.针对以上问题,本文提出了一种动态模式约束的多领域对话状态追踪模型,根据对话上下文动态建模模式节点之间的关联,减少当前轮次不相关节点之间的噪声信息交互.具体地,首先设计一种动态模式约束机制,在初始模式图基础上预测当前轮次下每对节点之间新的关联,并显式地建模相关节点之间的连接;其次,根据新的邻接矩阵和节点表示动态更新模式图;最后,将新的模式图节点特征与对话上下文融合,采用基于跨度预测的槽值提取模块提取槽值.实验结果表明,该模型在MultiWOZ 2.1和MultiWOZ 2.2多领域对话数据集上性能优于对比的基线模型. 展开更多
关键词 任务型对话 对话状态追踪 图神经网络 注意力机制
在线阅读 下载PDF
面向低质量数据的隐私记录链接方法
11
作者 黄汉城 马玉鹏 +3 位作者 赵凡 方鹏 王保全 王轶 《计算机应用研究》 北大核心 2025年第11期3454-3460,共7页
现有基于位向量编码的隐私记录链接方法多针对记录间的字符级差异,对生产环境下普遍存在的缺损记录问题关注不足。针对这一问题,提出一种面向低质量数据的隐私记录链接方法(LQ-PPRL)。采用动态分块策略增加缺损记录的分组次数,提高缺损... 现有基于位向量编码的隐私记录链接方法多针对记录间的字符级差异,对生产环境下普遍存在的缺损记录问题关注不足。针对这一问题,提出一种面向低质量数据的隐私记录链接方法(LQ-PPRL)。采用动态分块策略增加缺损记录的分组次数,提高缺损记录正确分块概率;根据缺损模式自适应调整缺损记录的匹配阈值,增加缺损记录匹配成功的可能性;在保留字符级模糊匹配能力的同时,缓解缺损记录带来的匹配错误问题,提高低质量数据的隐私记录链接整体效果。实验结果表明,相比于传统的位向量编码隐私记录链接协议,LQ-PPRL在低质量数据上具有更高的召回率以及F 1值,验证了其在处理低质量的隐私链接任务上的优越性。 展开更多
关键词 隐私计算 隐私记录链接 低质量数据 缺失值 缺损记录
在线阅读 下载PDF
基于改进主题分布特征的神经网络语言模型 被引量:10
12
作者 刘畅 张一珂 +1 位作者 张鹏远 颜永红 《电子与信息学报》 EI CSCD 北大核心 2018年第1期219-225,共7页
在递归神经网络(RNN)语言模型输入中增加表示当前词所对应主题的特征向量是一种有效利用长时间跨度历史信息的方法。由于在不同文档中各主题的概率分布通常差别很大,该文提出一种使用文档主题概率改进当前词主题特征的方法,并将改进后... 在递归神经网络(RNN)语言模型输入中增加表示当前词所对应主题的特征向量是一种有效利用长时间跨度历史信息的方法。由于在不同文档中各主题的概率分布通常差别很大,该文提出一种使用文档主题概率改进当前词主题特征的方法,并将改进后的特征应用于基于长短时记忆(LSTM)单元的递归神经网络语言模型中。实验表明,在PTB数据集上该文提出的方法使语言模型的困惑度相对于基线系统下降11.8%。在SWBD数据集多候选重估实验中,该文提出的特征使LSTM模型相对于基线模型词错误率(WER)相对下降6.0%;在WSJ数据集上的实验中,该特征使LSTM模型相对于基线模型词错误率(WER)相对下降6.8%,并且在eval92测试集上,改进隐含狄利克雷分布(LDA)特征使RNN效果与LSTM相当。 展开更多
关键词 语音识别 语言模型 隐含狄利克雷分布 长短时记忆
在线阅读 下载PDF
基于时间注意力胶囊网络的维吾尔语情感分类模型
13
作者 罗涵天 杨雅婷 +1 位作者 董瑞 马博 《中文信息学报》 北大核心 2025年第9期62-70,共9页
维吾尔语属于稀缺资源语言,如何在资源有限的情况下提升维吾尔语情感分类模型的性能,是目前仍待解决的问题。该文针对现有维吾尔语情感分析因为泛化能力不足所导致的分类效果不佳的问题,提出了基于时间卷积注意力胶囊网络的维吾尔语情... 维吾尔语属于稀缺资源语言,如何在资源有限的情况下提升维吾尔语情感分类模型的性能,是目前仍待解决的问题。该文针对现有维吾尔语情感分析因为泛化能力不足所导致的分类效果不佳的问题,提出了基于时间卷积注意力胶囊网络的维吾尔语情感分类模型(TA-Cap)。该文在维吾尔语情感分类数据集中进行了实验并且从多个评价指标(准确率,精确率,召回率,F_(1)值)进行评估。实验结果表明,该文提出的模型相比传统深度学习模型能够有效提升维吾尔语情感分类的各项指标。 展开更多
关键词 维吾尔语 情感分析 胶囊网络
在线阅读 下载PDF
基于完形填空的小样本意图槽位联合识别方法
14
作者 毕然 杨奉毅 +2 位作者 周喜 杨雅婷 艾比布拉·阿塔伍拉 《计算机工程》 北大核心 2025年第10期79-86,共8页
作为任务型对话系统的核心模块,自然语言理解(NLU)旨在将用户输入的自然语言进行结构化表示,通常分为意图识别和槽位填充两个子任务。由于两者联系密切,对意图和槽位进行显式联合建模成为通用的解决方案。然而,在资源稀缺的小样本场景... 作为任务型对话系统的核心模块,自然语言理解(NLU)旨在将用户输入的自然语言进行结构化表示,通常分为意图识别和槽位填充两个子任务。由于两者联系密切,对意图和槽位进行显式联合建模成为通用的解决方案。然而,在资源稀缺的小样本场景下较难通过少量支持集样本提取意图和槽位的关联关系,且从资源丰富的源领域学习到的通用知识无法直接应用于目标领域。受英语完形填空任务启发,将语句中非槽位(标签为“O”)单词的平均向量视为句型表示,提出一种句型自适应原型网络(SPAPN)方法。在资源丰富的源领域,充分学习跨越领域的句型语义知识,以句型信息为枢纽,间接完成意图和槽位的关系建模。在低资源目标领域,采用元学习的训练模式,通过注意力机制学习意图、槽位、句型原型的关联关系,获取意图和槽位的增强原型语义表示,结合对比对齐学习(CAL)方法,根据查询样本与原型之间的向量相似度判断其标签类别。在中英文基准数据集上的实验结果表明,无论是否经过微调,该方法较现有最优基线方法在意图识别准确率、槽位填充F1值以及联合准确率方面均能够取得更加优秀的表现。 展开更多
关键词 任务型对话系统 意图识别 槽位填充 小样本学习 注意力机制
在线阅读 下载PDF
动态异构图增强的级联解码事件抽取
15
作者 郭新宇 马博 +2 位作者 艾比布拉•阿塔伍拉 杨奉毅 周喜 《计算机工程》 北大核心 2025年第9期91-100,共10页
事件抽取是一项重要的信息抽取任务,旨在从自然语言文本中抽取出特定的事件或事实信息。在现实事件抽取场景中存在大量的事件重叠问题,即一个单词可以同时作为不同事件类型的触发词或不同角色的事件论元。然而,现有重叠事件抽取方法忽... 事件抽取是一项重要的信息抽取任务,旨在从自然语言文本中抽取出特定的事件或事实信息。在现实事件抽取场景中存在大量的事件重叠问题,即一个单词可以同时作为不同事件类型的触发词或不同角色的事件论元。然而,现有重叠事件抽取方法忽略了事件类型、论元角色等事件元素之间的关联和依赖关系,导致重叠事件抽取性能不佳。针对此问题,提出一种动态异构图增强的级联解码事件抽取模型DHG-EE,通过多粒度级联解码结构与领域-事件类型-论元角色异构图网络,有效实现重叠事件的结构表示与事件元素间的信息传递。具体来说:首先采用预训练模型对自然语言文本进行编码并构建由领域、事件类型和论元角色组成的多粒度异构图网络,将重叠事件论元与对应的多个领域节点和事件类型节点分开,并通过异构图的动态点边结构高效表示重叠事件的复杂关联关系;然后多粒度级联解码结构按照语义粒度由粗到细依次解码领域属性、事件类型、事件触发词和事件论元,并将上一粒度信息作为额外信息辅助下一粒度的解码,通过粗粒度领域和事件类型的预解码,有效约束了细粒度重叠触发词和事件论元的解码。实验结果表明,该模型在FewFC和DuEE1.0基准事件抽取数据集上的F1值优于对比的基线模型。 展开更多
关键词 信息抽取 事件抽取 重叠事件 异构图网络 级联解码
在线阅读 下载PDF
融合多种语言学特征的维吾尔语神经网络命名实体识别 被引量:6
16
作者 董瑞 杨雅婷 蒋同海 《计算机应用与软件》 北大核心 2020年第5期183-188,共6页
命名实体识别是自然语言处理中的基础任务,有着非常重要的作用。随着深度学习在自然语言处理中的深入研究,研究者发现使用神经网络进行命名实体识别、自动抽取特征,可以取得很好的识别效果。但是命名实体识别是和语言相关的,维吾尔语的... 命名实体识别是自然语言处理中的基础任务,有着非常重要的作用。随着深度学习在自然语言处理中的深入研究,研究者发现使用神经网络进行命名实体识别、自动抽取特征,可以取得很好的识别效果。但是命名实体识别是和语言相关的,维吾尔语的复杂形态特征,导致神经网络不能全面地自动抽取特征。提出一种融合多种语言学特征的Bi-LSTM-CNN-CRF神经网络模型,在维吾尔语命名实体语料库中进行验证,最终F1值提高了3.98%,充分说明对于复杂形态语言,添加语言学特征能够提高命名实体识别精度。 展开更多
关键词 命名实体识别 神经网络 维吾尔语 语言学特征
在线阅读 下载PDF
面向长期时间序列预测的多局部增强线性解码器研究
17
作者 陈子盎 郭世伟 +2 位作者 马玉鹏 韩云飞 王保全 《计算机工程与应用》 北大核心 2025年第16期179-186,共8页
在长期时间序列预测(long-term time series forecasting,LTSF)领域,采用编码器-解码器架构的深度学习模型展现出了卓越的性能。目前,虽然编码器从输入的历史序列中能够提取深层次的时间变化特征,捕获时间序列内部的周期性、趋势性以及... 在长期时间序列预测(long-term time series forecasting,LTSF)领域,采用编码器-解码器架构的深度学习模型展现出了卓越的性能。目前,虽然编码器从输入的历史序列中能够提取深层次的时间变化特征,捕获时间序列内部的周期性、趋势性以及局部信息相关性,但是解码器多依赖于编码器输出的全局特征,对编码器提取的局部特征利用不充分,限制了模型的预测性能。为充分挖掘和利用局部特征,提出了一种多局部增强线性解码器(multiple local augmented linear decoders,MLAD),通过引入局部特征增强机制(local feature augmented mechanism,LFAM),在编码器生成的特征序列上进行滑动,并将提取的局部特征与原始历史序列融合,从而生成多个局部增强序列,然后通过计算所有的局部增强序列对应预测序列的平均值来确定预测结果。在7个公开数据集上进行实验,结果表明MLAD达到或超过了现有主流模型性能,证明了其在LTSF任务中的有效性。 展开更多
关键词 长期时间序列预测(LTSF) 多局部增强线性解码器(MLAD) 局部特征增强机制(LFAM)
在线阅读 下载PDF
一种改进的哈萨克文编码字符处理方法
18
作者 董军 蒋同海 +2 位作者 艾孜麦提.艾尼瓦尔 程力 徐春 《中文信息学报》 CSCD 北大核心 2017年第4期94-99,共6页
该文介绍了哈萨克文专用字母■、■、■、■的特殊书写习惯,以及哈萨克文编码字符处理现状。指出当前广泛使用的字母替换法不符合国际和国家相关标准,并且会导致哈萨克文排序错误,增加文字转换、语音合成等功能的实现难度。为解决上述不... 该文介绍了哈萨克文专用字母■、■、■、■的特殊书写习惯,以及哈萨克文编码字符处理现状。指出当前广泛使用的字母替换法不符合国际和国家相关标准,并且会导致哈萨克文排序错误,增加文字转换、语音合成等功能的实现难度。为解决上述不足,对字母替换法进行了三个改进,包括用专用字母与符号"■"结合表示它们自己;专用字母各种书写形式带符号■的字形中,仅将独立字符形式带符号"■"的字形包含在OpenType字体中;用字形替换规则<calt>识别专用字母与哈萨克文字母不相邻的上下文环境。为便于改进方法的应用,该文介绍了与改进方法一致的OpenType字体字形替换规则设置方法。 展开更多
关键词 哈萨克文 编码字符 UNICODE OPENTYPE
在线阅读 下载PDF
基于释义信息的维汉机器翻译系统融合研究 被引量:7
19
作者 王亚娟 李晓 +1 位作者 杨雅婷 米成刚 《计算机工程》 CAS CSCD 北大核心 2019年第4期288-295,301,共9页
针对维汉机器翻译中单个翻译模型翻译效果差且多个翻译模型间翻译差异较大的问题,提出一种基于释义信息的系统融合方法。通过提取汉语端释义信息对汉语翻译假设进行词对齐,利用词对齐信息构建并解码混淆网络,从而得到维汉机器翻译系统... 针对维汉机器翻译中单个翻译模型翻译效果差且多个翻译模型间翻译差异较大的问题,提出一种基于释义信息的系统融合方法。通过提取汉语端释义信息对汉语翻译假设进行词对齐,利用词对齐信息构建并解码混淆网络,从而得到维汉机器翻译系统融合结果。实验结果表明,与单个翻译系统HPSTW相比,该方法能够有效提高翻译质量。 展开更多
关键词 维汉机器翻译 释义信息 系统融合 翻译假设词对齐 释义表过滤
在线阅读 下载PDF
基于对抗训练策略的语言模型数据增强技术 被引量:20
20
作者 张一珂 张鹏远 颜永红 《自动化学报》 EI CSCD 北大核心 2018年第5期891-900,共10页
基于最大似然估计(Maximum likelihood estimation,MLE)的语言模型(Language model,LM)数据增强方法由于存在暴露偏差问题而无法生成具有长时语义信息的采样数据.本文提出了一种基于对抗训练策略的语言模型数据增强的方法,通过一个辅助... 基于最大似然估计(Maximum likelihood estimation,MLE)的语言模型(Language model,LM)数据增强方法由于存在暴露偏差问题而无法生成具有长时语义信息的采样数据.本文提出了一种基于对抗训练策略的语言模型数据增强的方法,通过一个辅助的卷积神经网络判别模型判断生成数据的真伪,从而引导递归神经网络生成模型学习真实数据的分布.语言模型的数据增强问题实质上是离散序列的生成问题.当生成模型的输出为离散值时,来自判别模型的误差无法通过反向传播算法回传到生成模型.为了解决此问题,本文将离散序列生成问题表示为强化学习问题,利用判别模型的输出作为奖励对生成模型进行优化,此外,由于判别模型只能对完整的生成序列进行评价,本文采用蒙特卡洛搜索算法对生成序列的中间状态进行评价.语音识别多候选重估实验表明,在有限文本数据条件下,随着训练数据量的增加,本文提出的方法可以进一步降低识别字错误率(Character error rate,CER),且始终优于基于MLE的数据增强方法.当训练数据达到6 M词规模时,本文提出的方法使THCHS 30数据集的CER相对基线系统下降5.0%,AISHELL数据集的CER相对下降7.1%. 展开更多
关键词 数据增强 语言模型 生成对抗网络 强化学习 语音识别
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部