期刊文献+
共找到2,330篇文章
< 1 2 117 >
每页显示 20 50 100
A High Speed Signal Processing Machine -Its Architecture, Language and Compiler
1
作者 Wang Yufei and Yu ShiqiBeijing Institute of Data Processing Technology, P.O.Box 3927, Beijing 100039, China 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 1991年第1期119-128,共10页
A systolic array architecture computer (FXCQ) has been designed for signal processing. R can handle floating point data at very high speed. It is composed of 16 processing cells and a cache that are connected linearly... A systolic array architecture computer (FXCQ) has been designed for signal processing. R can handle floating point data at very high speed. It is composed of 16 processing cells and a cache that are connected linearly and form a ring structure. All processing cells are identical and programmable. Each processing cell has the peak performance of 20 million floating-point operations per second (20MFLOPS). The machine therefore has a peak performance of 320 M FLOPS. It is integrated as an attached processor into a host system through VME bus interface. Programs for FXCQ are written in a high-level language -B language, which is supported by a parallel optimizing compiler. This paper describes the architecture of FXCQ, B language and its compiler. 展开更多
关键词 Parallel processing Systolic array processor Parallel language Compiler.
在线阅读 下载PDF
大语言模型综述与展望 被引量:14
2
作者 秦小林 古徐 +1 位作者 李弟诚 徐海文 《计算机应用》 北大核心 2025年第3期685-696,共12页
大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参... 大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参数和数据支持,展现出更强的语言理解与生成能力,广泛应用于机器翻译、问答系统、对话生成等众多任务中并表现卓越。现有的综述大多侧重于LLM的理论架构与训练方法,对LLM的产业级应用实践及技术生态演进的系统性探讨仍显不足。因此,在介绍LLM的基础架构、训练技术及发展历程的基础上,分析当前通用的LLM关键技术和以LLM为底座的先进融合技术。通过归纳总结现有研究,进一步阐述LLM在实际应用中面临的挑战,包括数据偏差、模型幻觉和计算资源消耗等问题,并对LLM的持续发展趋势进行展望。 展开更多
关键词 大语言模型 智能体 自然语言处理 检索增强生成 模型幻觉
在线阅读 下载PDF
自然语言处理的深度学习模型综述 被引量:4
3
作者 何雪锋 周洁 +1 位作者 陈德光 廖海 《计算机应用与软件》 北大核心 2025年第2期1-19,101,共20页
模型作为自然语言处理的关键,直接关系到最终性能。该文介绍自然语言处理中涉及到的模型。按照规则与统计的方法从发布时间、特点、优缺点与适用范围等方面对传统自然语言处理模型进行介绍;重点将神经网络依据不同的技术划分为不同的类... 模型作为自然语言处理的关键,直接关系到最终性能。该文介绍自然语言处理中涉及到的模型。按照规则与统计的方法从发布时间、特点、优缺点与适用范围等方面对传统自然语言处理模型进行介绍;重点将神经网络依据不同的技术划分为不同的类型,对每种类型进行介绍并总结其相应特性;对以BERT为基础的两大类改进模型进行具体介绍并对每种模型进行归纳;分析目前自然语言处理模型面临的挑战与对应的解决办法;对未来工作进行展望。 展开更多
关键词 自然语言处理 语言模型 人工智能
在线阅读 下载PDF
基于XLNet和多粒度对比学习的新闻主题文本分类方法 被引量:1
4
作者 陈敏 王雷春 +2 位作者 徐瑞 史含笑 徐渺 《郑州大学学报(理学版)》 CAS 北大核心 2025年第2期16-23,共8页
新闻主题文本内容简短却含义丰富,传统方法通常只考虑词粒度或句粒度向量中的一种进行研究,未能充分利用新闻主题文本不同粒度向量之间的关联信息。为深入挖掘文本的词向量和句向量间的依赖关系,提出一种基于XLNet和多粒度特征对比学习... 新闻主题文本内容简短却含义丰富,传统方法通常只考虑词粒度或句粒度向量中的一种进行研究,未能充分利用新闻主题文本不同粒度向量之间的关联信息。为深入挖掘文本的词向量和句向量间的依赖关系,提出一种基于XLNet和多粒度特征对比学习的新闻主题分类方法。首先,利用XLNet对新闻主题文本进行特征提取获得文本中词、句粒度的特征表示和潜在空间关系;然后,通过对比学习R-Drop策略生成不同粒度特征的正负样本对,以一定权重对文本的词向量-词向量、词向量-句向量和句向量-句向量进行特征相似度学习,使模型深入挖掘出字符属性和语句属性之间的关联信息,提升模型的表达能力。在THUCNews、Toutiao和SHNews数据集上进行实验,实验结果表明,与基准模型相比,所提方法在准确率和F 1值上都有更好的表现,在三个数据集上的F 1值分别达到了93.88%、90.08%、87.35%,验证了方法的有效性和合理性。 展开更多
关键词 自然语言处理 文本分类 新闻主题 XLNet 对比学习
在线阅读 下载PDF
医疗领域的大型语言模型综述 被引量:1
5
作者 肖建力 许东舟 +4 位作者 王浩 刘敏 周雷 朱林 顾松 《智能系统学报》 北大核心 2025年第3期530-547,共18页
深度学习是人工智能领域的热门研究方向之一,它通过构建多层人工神经网络模仿人脑对数据的处理机制。大型语言模型(large language model,LLM)基于深度学习的架构,在无需编程指令的情况下,能通过分析大量数据以获得理解和生成人类语言... 深度学习是人工智能领域的热门研究方向之一,它通过构建多层人工神经网络模仿人脑对数据的处理机制。大型语言模型(large language model,LLM)基于深度学习的架构,在无需编程指令的情况下,能通过分析大量数据以获得理解和生成人类语言的能力,被广泛应用于自然语言处理、计算机视觉、智慧医疗、智慧交通等诸多领域。文章总结了LLM在医疗领域的应用,涵盖了LLM针对医疗任务的基本训练流程、特殊策略以及在具体医疗场景中的应用。同时,进一步讨论了LLM在应用中面临的挑战,包括决策过程缺乏透明度、输出准确性以及隐私、伦理问题等,随后列举了相应的改进策略。最后,文章展望了LLM在医疗领域的未来发展趋势,及其对人类健康事业发展的潜在影响。 展开更多
关键词 人工智能 深度学习 TRANSFORMER 大型语言模型 智慧医疗 数据分析 图像处理 计算机视觉
在线阅读 下载PDF
大语言模型参数高效微调技术综述 被引量:1
6
作者 秦董洪 李政韬 +3 位作者 白凤波 董路宽 张慧 徐晨 《计算机工程与应用》 北大核心 2025年第16期38-63,共26页
近年来,自然语言处理领域的训练范式和模型规模发生显著变化,从特定任务的监督学习转向全量微调大规模预训练模型。然而,模型参数的激增导致全量微调计算成本高昂。“参数高效微调”技术应运而生,通过仅微调部分参数或引入少量新参数,... 近年来,自然语言处理领域的训练范式和模型规模发生显著变化,从特定任务的监督学习转向全量微调大规模预训练模型。然而,模型参数的激增导致全量微调计算成本高昂。“参数高效微调”技术应运而生,通过仅微调部分参数或引入少量新参数,显著降低成本并保持性能。对近年来参数高效微调技术中最具代表性和最前沿的方法进行了简要介绍和系统分析,涵盖设计理念与核心算法,并对不同方法的特性、优势、不足以及适用场景进行了归纳和分析,并进一步对比了不同种类中同系列的多种方法,分析了同系列方法在设计理念上的演进趋势,提供了当前研究现状的全面概述。最后对参数高效微调技术进行整体的分析与展望,提出未来该技术可能的优化方向,并结合实践提出该技术在实际工程应用中可行的技术方案。 展开更多
关键词 参数高效微调技术 深度学习 自然语言处理 模型优化
在线阅读 下载PDF
基于知识图谱的钻井顶部驱动装置故障智能诊断方法 被引量:1
7
作者 陈冬 肖远山 +2 位作者 尹志勇 张彦龙 叶智慧 《天然气工业》 北大核心 2025年第2期125-135,共11页
钻井顶部驱动装置结构复杂、故障类型多样,现有的故障树分析法和专家系统难以有效应对复杂多变的现场情况。为此,利用知识图谱在结构化与非结构化信息融合、故障模式关联分析以及先验知识传递方面的优势,提出了一种基于知识图谱的钻井... 钻井顶部驱动装置结构复杂、故障类型多样,现有的故障树分析法和专家系统难以有效应对复杂多变的现场情况。为此,利用知识图谱在结构化与非结构化信息融合、故障模式关联分析以及先验知识传递方面的优势,提出了一种基于知识图谱的钻井顶部驱动装置故障诊断方法,利用以Transformer为基础的双向编码器模型(Bidirectional Encoder Representations from Transformers,BERT)构建了混合神经网络模型BERT-BiLSTM-CRF与BERT-BiLSTM-Attention,分别实现了顶驱故障文本数据的命名实体识别和关系抽取,并通过相似度计算,实现了故障知识的有效融合和智能问答,最终构建了顶部驱动装置故障诊断方法。研究结果表明:①在故障实体识别任务上,BERT-BiLSTM-CRF模型的精确度达到95.49%,能够有效识别故障文本中的信息实体;②在故障关系抽取上,BERT-BiLSTM-Attention模型的精确度达到93.61%,实现了知识图谱关系边的正确建立;③开发的问答系统实现了知识图谱的智能应用,其在多个不同类型问题上的回答准确率超过了90%,能够满足现场使用需求。结论认为,基于知识图谱的故障诊断方法能够有效利用顶部驱动装置的先验知识,实现故障的快速定位与智能诊断,具备良好的应用前景。 展开更多
关键词 钻井装备 顶部驱动装置 故障诊断 深度学习 知识图谱 自然语言处理 命名实体识别 智能问答系统
在线阅读 下载PDF
数学应用题的题意自动理解研究及发展
8
作者 刘清堂 贾祥成 +2 位作者 吴林静 陈亮 涂凤娇 《计算机应用与软件》 北大核心 2025年第6期10-20,共11页
面向教育的题意理解和机器解题方法研究受到世界各国学者的高度关注,并逐步成为人工智能应用领域研究的热点之一。问题自动求解理论方法虽取得长足进步,但进一步提升性能的难度巨大,其根源在于题意理解的准确度。从数学应用题题意分析... 面向教育的题意理解和机器解题方法研究受到世界各国学者的高度关注,并逐步成为人工智能应用领域研究的热点之一。问题自动求解理论方法虽取得长足进步,但进一步提升性能的难度巨大,其根源在于题意理解的准确度。从数学应用题题意分析模型及方法、题意理解表征和题意的语义理解三个方面对当前该领域的研究进展进行综述。通过分析,进一步指出深度学习模型的可解释性不足、缺乏标准化数据集、缺乏大型常识知识库和求解过程可视化不足是当前研究中所面临的主要挑战课题。 展开更多
关键词 题意理解 数学应用题 自动求解 自然语言处理
在线阅读 下载PDF
基于双超图神经网络特征融合的文本分类
9
作者 郑诚 李鹏飞 《计算机工程》 北大核心 2025年第6期127-135,共9页
近年来,图神经网络(GNN)在文本分类任务中受到广泛应用。当前基于GNN的文本分类模型首先将文本建模为图,然后使用GNN对文本图进行特征传播与聚合,但是此类方法有两点不足:一是现有模型由于图结构的限制无法捕获单词之间的高阶语义关系;... 近年来,图神经网络(GNN)在文本分类任务中受到广泛应用。当前基于GNN的文本分类模型首先将文本建模为图,然后使用GNN对文本图进行特征传播与聚合,但是此类方法有两点不足:一是现有模型由于图结构的限制无法捕获单词之间的高阶语义关系;二是现有模型无法捕获文本中的关键语义信息。为了解决上述问题,提出一种基于双超图卷积网络特征融合的文本分类模型。一方面,使用原始文本建立文本超图;另一方面,为短文本引入外部知识,使用基于SenticNet词库的外部知识对文本进行语义增强,构建语义超图。经过超图卷积后通过注意力机制对双超图特征进行融合,实现短文本分类。在4个文本分类数据集上的实验结果表明,该模型优于基线模型,具有优越的文本分类性能。 展开更多
关键词 文本分类 超图 特征融合 SenticNet词库 自然语言处理
在线阅读 下载PDF
面向古籍文献智能处理的大语言模型效能测评
10
作者 文玉锋 林伟杰 +1 位作者 夏翠娟 周文杰 《图书馆论坛》 北大核心 2025年第8期52-60,共9页
古籍文献是中华优秀传统文化的重要载体,对其内容结构进行有效揭示具有重要意义。大语言模型为古籍文献的“活化”提供了技术潜力,但其能力需通过科学严谨的测评加以验证。文章选取豆包、DeepSeek等14种大语言模型,以2022-2024年高考语... 古籍文献是中华优秀传统文化的重要载体,对其内容结构进行有效揭示具有重要意义。大语言模型为古籍文献的“活化”提供了技术潜力,但其能力需通过科学严谨的测评加以验证。文章选取豆包、DeepSeek等14种大语言模型,以2022-2024年高考语文试卷文言文题目为语料,对古籍文献基础智能处理能力进行测评。由于知识图谱构建受基础能力的影响,基于测评结果,选择排名靠前的豆包和DeepSeek,以《史记·朝鲜列传》为语料,对两个大模型在知识图谱构建的信度、效度方面进行测评。研究发现,大语言模型具备基本古籍文献内容理解的能力,综合断句、逻辑判断、翻译和总结归纳四个维度,豆包与DeepSeek表现较为突出;豆包和DeepSeek的古籍文献知识图谱构建信效度检验结果显示,豆包大模型表现更优。 展开更多
关键词 古籍文献 大语言模型 智能处理 效能测评
在线阅读 下载PDF
一种注意力引导知识增强的事件因果关系识别方法
11
作者 徐博 孙晋辰 +1 位作者 林鸿飞 宗林林 《中文信息学报》 北大核心 2025年第1期89-100,共12页
事件因果关系识别是自然语言处理领域的重要任务,由于因果关系表达方式多样且以隐式表达为主,现有方法难以准确识别。该文将外部结构化知识融入事件因果关系识别任务,提出一种注意力引导知识增强的事件因果关系识别方法。首先,通过BERT... 事件因果关系识别是自然语言处理领域的重要任务,由于因果关系表达方式多样且以隐式表达为主,现有方法难以准确识别。该文将外部结构化知识融入事件因果关系识别任务,提出一种注意力引导知识增强的事件因果关系识别方法。首先,通过BERT模型对事件对及其上下文进行编码;然后,提出零跳混合匹配方案挖掘事件相关的描述型知识和关系型知识,通过注意力机制对事件的描述型知识序列进行编码,通过稠密图神经网络对事件对的关系型知识进行编码。最后,融合前三个编码模块识别事件因果关系。基于EventStoryLine和Causal-TimeBank数据集的实验结果表明,该文所构建模型的识别效果优于现有模型,在零跳概念匹配、描述性和关系型知识编码等层面均获得了识别性能的提升。 展开更多
关键词 事件抽取 因果识别 知识图谱 注意力机制 自然语言处理
在线阅读 下载PDF
深层语义特征增强的ReLM中文拼写纠错模型
12
作者 张伟 牛家祥 +1 位作者 马继超 沈琼霞 《计算机应用》 北大核心 2025年第8期2484-2490,共7页
ReLM(Rephrasing Language Model)是当前性能领先的中文拼写纠错(CSC)模型。针对它在复杂语义场景中存在特征表达不足的问题,提出深层语义特征增强的ReLM——FeReLM(Feature-enhanced Rephrasing Language Model)。该模型利用深度可分... ReLM(Rephrasing Language Model)是当前性能领先的中文拼写纠错(CSC)模型。针对它在复杂语义场景中存在特征表达不足的问题,提出深层语义特征增强的ReLM——FeReLM(Feature-enhanced Rephrasing Language Model)。该模型利用深度可分离卷积(DSC)技术融合特征提取模型BGE(BAAI General Embeddings)生成的深层语义特征与ReLM生成的整体特征,从而有效提升模型对复杂上下文的解析力和拼写错误的识别纠正精度。首先,在Wang271K数据集上训练FeReLM,使模型持续学习句子中的深层语义和复杂表达;其次,迁移训练好的权重,从而将模型学习到的知识应用于新的数据集并进行微调。实验结果表明,在ECSpell和MCSC数据集上与ReLM、MCRSpell(Metric learning of Correct Representation for Chinese Spelling Correction)和RSpell(Retrieval-augmented Framework for Domain Adaptive Chinese Spelling Check)等模型相比,FeReLM的精确率、召回率、F1分数等关键指标的提升幅度可达0.6~28.7个百分点。此外,通过消融实验验证了所提方法的有效性。 展开更多
关键词 自然语言处理 特征增强 中文拼写纠错 语义融合 文本纠错 预训练语言模型
在线阅读 下载PDF
层次融合多元知识的命名实体识别框架——HTLR
13
作者 吕学强 王涛 +1 位作者 游新冬 徐戈 《计算机应用》 北大核心 2025年第1期40-47,共8页
中文命名实体识别(NER)任务旨在抽取非结构化文本中包含的实体并给它们分配预定义的实体类别。针对大多数中文NER方法在上下文信息缺乏时的语义学习不足问题,提出一种层次融合多元知识的NER框架——HTLR(Chinese NER method based on Hi... 中文命名实体识别(NER)任务旨在抽取非结构化文本中包含的实体并给它们分配预定义的实体类别。针对大多数中文NER方法在上下文信息缺乏时的语义学习不足问题,提出一种层次融合多元知识的NER框架——HTLR(Chinese NER method based on Hierarchical Transformer fusing Lexicon and Radical),以通过分层次融合的多元知识来帮助模型学习更丰富、全面的上下文信息和语义信息。首先,通过发布的中文词汇表和词汇向量表识别语料中包含的潜在词汇并把它们向量化,同时通过优化后的位置编码建模词汇和相关字符的语义关系,以学习中文的词汇知识;其次,通过汉典网发布的基于汉字字形的编码将语料转换为相应的编码序列以代表字形信息,并提出RFECNN(Radical Feature Extraction-Convolutional Neural Network)模型来提取字形知识;最后,提出Hierarchical Transformer模型,其中由低层模块分别学习字符和词汇以及字符和字形的语义关系,并由高层模块进一步融合字符、词汇、字形等多元知识,从而帮助模型学习语义更丰富的字符表征。在Weibo、Resume、MSRA和OntoNotes4.0公开数据集进行了实验,与主流方法NFLAT(Non-Flat-LAttice Transformer for Chinese named entity recognition)的对比结果表明,所提方法的F1值在4个数据集上分别提升了9.43、0.75、1.76和6.45个百分点,达到最优水平。可见,多元语义知识、层次化融合、RFE-CNN结构和Hierarchical Transformer结构对学习丰富的语义知识及提高模型性能是有效的。 展开更多
关键词 命名实体识别 自然语言处理 知识图谱构建 词汇增强 字形增强
在线阅读 下载PDF
燃料电池用双爪氢气循环泵工作特性与瞬态模拟
14
作者 王君 辛远杰 +5 位作者 潘诗洋 赵鑫 任纯吉 谈庆朋 王增丽 崔冬 《哈尔滨工程大学学报》 北大核心 2025年第2期267-275,共9页
为了解决传统双爪循环泵啮合性差和工作过程复杂的问题,本文提出一种新型偏心圆弧型双爪转子,建立其几何模型,并推导其型线方程。采用偏心圆弧及其共轭曲线构建出光滑的双爪转子,进而得到一种用于氢气循环的爪式压缩机,分析其工作过程... 为了解决传统双爪循环泵啮合性差和工作过程复杂的问题,本文提出一种新型偏心圆弧型双爪转子,建立其几何模型,并推导其型线方程。采用偏心圆弧及其共轭曲线构建出光滑的双爪转子,进而得到一种用于氢气循环的爪式压缩机,分析其工作过程。通过数值模拟,研究了新型爪式压缩机的流场变化规律,并与现有爪式压缩机进行了对比。研究结果表明:所提出的新型双爪转子能够实现全光滑啮合,解决了传统双爪转子的尖点问题,增强了转子与壳体之间的密封效果。同时,通过合理的排气口设计,消除了余隙容积,提高了爪式压缩机的综合性能,对于爪式压缩机的发展和氢燃料电池系统性能的提高具有重要意义。 展开更多
关键词 燃料电池 氢气循环泵 爪式压缩机 双爪转子 型线设计 全光滑啮合 工作过程 流场模拟 瞬态仿真
在线阅读 下载PDF
基于抽象标签序列与大语言模型的业务过程自动生成
15
作者 朱锐 肖鸿浩 +4 位作者 李文鑫 胡泉舟 宋俊巧 胡胜男 陈晔婷 《计算机集成制造系统》 北大核心 2025年第5期1639-1650,共12页
大语言模型的迅速发展对企业领域的业务过程管理产生了提高效率、降低成本、增强客户体验和促进创新等显著影响。业务过程管理(BPM)中的业务过程自动生成具有模拟业务过程进行业务改进以及将复杂的业务过程可视化等重大意义。所提出的... 大语言模型的迅速发展对企业领域的业务过程管理产生了提高效率、降低成本、增强客户体验和促进创新等显著影响。业务过程管理(BPM)中的业务过程自动生成具有模拟业务过程进行业务改进以及将复杂的业务过程可视化等重大意义。所提出的业务过程自动生成方法能够整合到实际业务场景中,以帮助改善业务过程并提高效率。所提方法分为以下几个部分,首先将业务过程文本经过信号词库转化为抽象标签序列,其次构建提示模板从大语言模型中得到抽象标签的邻接表从而确定抽象标签之间的连接关系得到一张初始图,随后将初始图输入到归纳式图神经网络进行监督学习训练,最后预测出活动间直接时序关系并将其转化为过程图。实验表明,所提方法在预测活动间时序关系的总体F1-分数达到了0.67,在预测顺序、并发和无关系的时序关系上领先基线方法和大语言模型的方法,在选择关系上能够领先基线方法但落后于大语言模型的方法。 展开更多
关键词 大语言模型 业务过程管理 业务过程自动生成 图神经网络
在线阅读 下载PDF
面向跨域自然语言生成SQL语句的超图神经网络
16
作者 郝志峰 黎阳霖 +1 位作者 许柏炎 蔡瑞初 《计算机工程》 北大核心 2025年第5期114-123,共10页
近年来,图神经网络(GNN)广泛-应用于跨域自然语言生成结构化查询语言(SQL)语句(Text-to-SQL)的编码器。基于GNN的编码过程通过捕获数据库架构和自然语言问题之间的关联信息,大幅提高生成模型在跨域SQL语句生成下的泛化性。现有的GNN方... 近年来,图神经网络(GNN)广泛-应用于跨域自然语言生成结构化查询语言(SQL)语句(Text-to-SQL)的编码器。基于GNN的编码过程通过捕获数据库架构和自然语言问题之间的关联信息,大幅提高生成模型在跨域SQL语句生成下的泛化性。现有的GNN方法在异构图结构编码学习过程中存在缺陷,以节点为中心进行数据库架构和自然语言问题的链接预测,在复杂语义场景下容易出现错配。针对这一问题,提出一种面向跨域Text-to-SQL的异构图学习框架。框架针对异构图以边为中心学习的过程提出关系边子图构建和边超图注意力网络,有效学习异构图中关系边与节点的差异化结构特征,实现复杂语义场景下SQL语句正确生成。为验证所提框架的有效性,在多个跨域Text-to-SQL数据集上进行充分实验对比。结果表明,相较于基线,该框架在F1值和完全匹配准确率(EMA)指标上均取得显著提升,且在复杂跨域场景下具有更强的泛化性。 展开更多
关键词 自然语言处理 自然语言生成SQL语句解析 深度学习 图构建 图神经网络
在线阅读 下载PDF
智慧教育中的大语言模型综述
17
作者 肖建力 黄星宇 姜飞 《智能系统学报》 北大核心 2025年第5期1054-1070,共17页
近年来,人工智能技术在教育领域的广泛应用正逐步革新现代教育的模式,教育面临新的机遇和挑战。特别是随着大语言模型的兴起,人工智能有望融入到教与学的过程中,教育模式由传统的师−生二元模式正转变为师−生−机三元模式。文章以教育领... 近年来,人工智能技术在教育领域的广泛应用正逐步革新现代教育的模式,教育面临新的机遇和挑战。特别是随着大语言模型的兴起,人工智能有望融入到教与学的过程中,教育模式由传统的师−生二元模式正转变为师−生−机三元模式。文章以教育领域内应用的大语言模型为研究焦点,介绍了大语言模型在教育中的特点。以当前主流的几种大语言模型为例,详细阐述这些模型在教育中的实际应用情况,总结了目前教育大模型的共性以及差异性特点。还探讨了如何开发和训练满足教育需求的定制化大语言模型,这一过程对实际应用至关重要。基于训练完成的教育大模型,进一步阐释了其存在的局限性,并展望了未来教育领域可能出现的新型大模型及其发展趋势。 展开更多
关键词 人工智能 智慧教育 大模型 教育技术 自然语言处理 教育应用 多模态学习 学习分析
在线阅读 下载PDF
基于深度跨域中介模块的英文翻译
18
作者 黄笑菡 程时伟 张纪林 《计算机工程与设计》 北大核心 2025年第9期2502-2508,共7页
为促进文本域与视觉域之间的语义关联,提高英文翻译的准确性,提出一种基于深度跨域中介模块(deep crossdomain intermediary module,DCIM)的英文翻译方法,区别于传统的联合空间学习方法,DCIM作为中介模块指导图像中感兴趣区域与源词之... 为促进文本域与视觉域之间的语义关联,提高英文翻译的准确性,提出一种基于深度跨域中介模块(deep crossdomain intermediary module,DCIM)的英文翻译方法,区别于传统的联合空间学习方法,DCIM作为中介模块指导图像中感兴趣区域与源词之间的交互。通过强化文本编码器和视觉编码器提取的表征之间的语义关联,使视觉表征在语义上得到增强并演化为跨域表征。通过双重注意力解码器,利用两种独立的注意力机制分别处理文本和跨域表征的上下文,预测目标词汇。实验结果表明,集成DCIM的模型在两种英文翻译任务中基于Meteor和Ribes指标取得了最佳翻译准确性和鲁棒性。 展开更多
关键词 深度跨域中介模块 英文翻译 双重注意力解码器 文本域 视觉域 神经网络 自然语言处理
在线阅读 下载PDF
融合知识图谱的多行为职位推荐
19
作者 刘滨 雷晓雨 +3 位作者 刘格格 詹世源 高歆 杨晓艳 《河北科技大学学报》 北大核心 2025年第3期333-341,共9页
为提高职位推荐准确率,基于求职者和招聘者在“浏览岗位→投递简历→招聘者反馈”等环节表现出的行为隐含的求聘双方偏好信息,提出了一种融合知识图谱的多行为职位推荐模型(multi-behavior job recommendation integrating knowledge gr... 为提高职位推荐准确率,基于求职者和招聘者在“浏览岗位→投递简历→招聘者反馈”等环节表现出的行为隐含的求聘双方偏好信息,提出了一种融合知识图谱的多行为职位推荐模型(multi-behavior job recommendation integrating knowledge graph, MB-JRIKG)。该方法基于真实的职位数据构建求职领域知识图谱,并在偏好传播理论的基础上提出多行为偏好传播策略,将求聘各环节中“招聘者认可”设为目标行为,求职者浏览岗位和投递简历设定为辅助行为,综合预测求职者的偏好。首先,分别以用户在不同行为下的历史记录作为用户感兴趣的种子集,并在知识图谱中沿着节点之间的关系进行偏好传播以推理出用户的潜在偏好,增强用户表示;然后,将用户表示向量和职位表示向量输入预测函数中,计算用户在每个行为类型下的交互概率,并加权求和作为目标行为的交互概率;最后,使用阿里巴巴人岗智能匹配的比赛数据集进行点击率预测实验。结果表明,在与MF、XGBoost、KGCN、RippleNet 4个基准模型的对比中,MB-JRIKG相比次优基准模型RippleNet在指标AUC和ACC上分别提高了0.014 5和0.028 8,验证了模型的有效性,实现了数据的充分利用。该模型有效结合求聘双方的交互行为进行推荐,引入职位知识图谱的属性关联,对实现个性化的职位推荐有参考价值。 展开更多
关键词 自然语言处理 职位推荐 知识图谱 多行为 偏好传播
在线阅读 下载PDF
基于双向译码的实体关系抽取方法
20
作者 刘辉 张智 陈宇鹏 《应用科学学报》 北大核心 2025年第3期491-503,共13页
针对现有关系三元组提取方法存在的误差传播、嵌套三元组难提取和主客体难对齐等问题,从实体抽取、主客体对齐和关系判断3个子任务的全新视角出发,提出了一种新的基于联合实体关系抽取框架的双向译码解码模型。其中,双向抽取框架极大地... 针对现有关系三元组提取方法存在的误差传播、嵌套三元组难提取和主客体难对齐等问题,从实体抽取、主客体对齐和关系判断3个子任务的全新视角出发,提出了一种新的基于联合实体关系抽取框架的双向译码解码模型。其中,双向抽取框架极大地减少了级联误差传播;基于注意力机制的译码解码方法能够有效处理常规方法嵌套三元组难提取的问题,并有效对齐了主体和客体;关系判断模块的二部图方法充分挖掘了实体对之间的关系,实现了准确高效的关系判断。公开数据集上的实验结果验证了所提模型的性能。 展开更多
关键词 自然语言处理 信息提取 实体抽取 关系抽取 误差传播 三元组
在线阅读 下载PDF
上一页 1 2 117 下一页 到第
使用帮助 返回顶部