期刊文献+
共找到19篇文章
< 1 >
每页显示 20 50 100
基于Lora微调的轻量化中医药古籍大语言模型研究
1
作者 柴景贤 郎许锋 +5 位作者 李红岩 周作建 凌云 战丽彬 胡孔法 乔学斌 《世界科学技术-中医药现代化》 北大核心 2025年第3期823-831,共9页
目的 针对中医古籍大语言模型构建难度大、微调成本高的问题,研究轻量化中医药古籍大语言模型微调方法,实现以历代《伤寒论》为核心的中医古籍知识问答模型。方法 数据集构造,设计提示词引导GPT-4生成《伤寒论》知识问答对,并融合ShenNo... 目的 针对中医古籍大语言模型构建难度大、微调成本高的问题,研究轻量化中医药古籍大语言模型微调方法,实现以历代《伤寒论》为核心的中医古籍知识问答模型。方法 数据集构造,设计提示词引导GPT-4生成《伤寒论》知识问答对,并融合ShenNong_TCM_Dataset与cMedQA2数据集;模型选择,选用5个通用大模型进行Lora微调,经评估选取最佳模型并验证多版本量化效果。结果 微调后的Qwen-7BChat的BLEU、ROUGE-1、ROUGE-2与ROUGE-L指标相较于基座模型分别提升了17.61、19.63、14.3与21.4。结论 本文所选模型能够有效理解和使用《伤寒论》等中医古籍专业术语和概念,针对用户问题给出准确答案,且相较于同类模型微调成本与算力要求更低,有助于中医药知识传播与智能化发展。 展开更多
关键词 大语言模型 中医药古籍知识 《伤寒论》 lora微调 模型轻量化
在线阅读 下载PDF
基于LoRA微调与RAG融合的煤矿专业大模型应用关键技术
2
作者 秦一凡 付翔 +2 位作者 张智星 贾一帆 孙岩 《工矿自动化》 北大核心 2025年第8期34-42,50,共10页
目前煤矿行业大模型仅对用户的提问进行知识问答,未与现场实时数据相关联,无法对煤矿生产运行状况进行实时分析与指导。针对这些问题,提出一种基于大语言模型的低阶适应(LoRA)微调和检索增强生成(RAG)融合的煤矿专业大模型。该模型先运... 目前煤矿行业大模型仅对用户的提问进行知识问答,未与现场实时数据相关联,无法对煤矿生产运行状况进行实时分析与指导。针对这些问题,提出一种基于大语言模型的低阶适应(LoRA)微调和检索增强生成(RAG)融合的煤矿专业大模型。该模型先运用LoRA技术从历史文本语料中抽取出知识实体并定义知识结构输入大模型进行微调,使大模型能够深入理解领域知识,再将实时产生的生产数据、实时更新的作业规程、法规条例等数据经过向量化清洗输入向量数据库,并与RAG的检索机制相结合,确保数据信息的实时性和准确性。实验结果表明:①经LoRA微调后,模型回答可以精准契合某煤矿“一通三防”管理制度汇编,不仅详细阐述了控制瓦斯排放的增阻限风、分风限风、逐段排放等具体方法,还对排放时间计算、传感器设置、图纸绘制及断电撤人等操作细则进行说明,实现了从泛泛而谈到精准定位具体煤矿特定文件内容的跨越。②选取现场143万条液压支架时序数据,分别存入Milvus向量数据库与MySQL关系型数据库,从写入效率与查询性能2个维度进行对比,结果表明:Milvus向量数据库写入速度为MySQL关系型数据库的2.4倍;在向量检索场景方面,Milvus的向量相似度检索延迟稳定在20 ms,在混合查询场景效率方面,MySQL需全表扫描后排序,143万条数据延迟超100 ms,而Milvus将设备ID过滤后的子集输入分层可导航小世界图(HNSW)层,仅读取查询涉及的向量字段,避免了全表扫描。③将本地基于LoRA微调与RAG融合的煤矿专业大模型与本地离线deepseekR1−7b模型进行部署,对多项指标进行测试,结果表明:基于LoRA微调与RAG融合的煤矿专业大模型在煤矿专业领域知识学习性、知识动态化更新时效性、模型泛化与回答精确度方面具有显著优势,为工业级AI落地提供了可行路径。 展开更多
关键词 人工智能 煤矿专业大模型 大语言模型的低阶适应微调 检索增强生成 分层可导航小世界图 lora微调 RAG HNSW
在线阅读 下载PDF
大语言模型及其在矿物问答系统中的应用
3
作者 季晓慧 刘成健 +4 位作者 杨眉 何明跃 张招崇 曾姗 王玉柱 《矿物岩石地球化学通报》 北大核心 2025年第3期453-461,I0002,共10页
大语言模型(LLMs,Large Language Models)具有极强的自然语言理解和复杂问题求解能力,本文基于大语言模型构建了矿物问答系统,以高效地获取矿物知识。该系统首先从互联网资源获取矿物数据,清洗后将矿物数据结构化为矿物文档和问答对;将... 大语言模型(LLMs,Large Language Models)具有极强的自然语言理解和复杂问题求解能力,本文基于大语言模型构建了矿物问答系统,以高效地获取矿物知识。该系统首先从互联网资源获取矿物数据,清洗后将矿物数据结构化为矿物文档和问答对;将矿物文档经过格式转换和建立索引后转化为矿物知识库,用于检索增强大语言模型生成,问答对用于微调大语言模型。使用矿物知识库检索增强大语言模型生成时,采用先召回再精排的两级检索模式,以获得更好的大语言模型生成结果。矿物大语言模型微调采用了主流的低秩适配(Low-Rank Adaption,LoRA)方法,以较少的训练参数获得了与全参微调性能相当的效果,节省了计算资源。实验结果表明,基于检索增强生成的大语言模型的矿物问答系统能以较高的准确率快捷地获取矿物知识。 展开更多
关键词 大语言模型 矿物 检索增强生成 低秩适配 问答系统
在线阅读 下载PDF
基于生成式人工智能的耀州青瓷传统牡丹纹饰构建与再塑研究
4
作者 钦松 刘宝骏 +1 位作者 白晓波 刘俊玲 《包装工程》 北大核心 2025年第18期380-389,共10页
目的探究一种基于生成式人工智能技术拓展耀州青瓷传统牡丹纹饰的工作流程和设计方式。方法以耀州青瓷传统牡丹纹饰为研究对象,通过搭建多模型组合流程,对其进行数据整理、标签锚定和训练优化。使用生成式人工智能技术来获得特定风格牡... 目的探究一种基于生成式人工智能技术拓展耀州青瓷传统牡丹纹饰的工作流程和设计方式。方法以耀州青瓷传统牡丹纹饰为研究对象,通过搭建多模型组合流程,对其进行数据整理、标签锚定和训练优化。使用生成式人工智能技术来获得特定风格牡丹纹饰的智能生成方法,从而拓宽传统耀州青瓷牡丹纹饰样本数量,为设计师再创造提供海量素材。结果采用LoRA模型训练方式,仅需少量样本即可将耀州青瓷传统牡丹纹饰特征在Stable Diffusion中重现。结论在数智高速发展的背景下,该方式不仅符合新时代发展和满足独立知识产权的需要,而且为中国其他历史名窑的数字化传承提供了良好的可借鉴思路和方法。 展开更多
关键词 生成式人工智能 耀州青瓷传统牡丹纹饰 lora模型 Stable Diffusion
在线阅读 下载PDF
大语言模型驱动的跨领域属性级情感分析 被引量:4
5
作者 李诗晨 王中卿 周国栋 《软件学报》 北大核心 2025年第2期644-659,共16页
属性级情感分析作为一种细粒度情感分析方法,目前在许多应用场景中都具有重要作用.然而,随着社交媒体和在线评论的日益广泛以及各类新兴领域的出现,使得跨领域属性级情感分析面临着标签数据不足以及源领域与目标领域文本分布差异等挑战... 属性级情感分析作为一种细粒度情感分析方法,目前在许多应用场景中都具有重要作用.然而,随着社交媒体和在线评论的日益广泛以及各类新兴领域的出现,使得跨领域属性级情感分析面临着标签数据不足以及源领域与目标领域文本分布差异等挑战.目前已有许多数据增强方法试图解决这些问题,但现有方法生成的文本仍存在语义不连贯、结构单一以及特征与源领域过于趋同等问题.为了克服这些问题,提出一种基于大语言模型(large language model,LLM)数据增强的跨领域属性级情感分析方法.所提方法利用大模型丰富的语言知识,合理构建针对跨领域属性级别情感分析任务的引导语句,挖掘目标领域与源领域相似文本,通过上下文学习的方式,使用领域关联关键词引导LLM生成目标领域有标签文本数据,用以解决目标领域数据缺乏以及领域特异性问题,从而有效提高跨领域属性级情感分析的准确性和鲁棒性.所提方法在多个真实数据集中进行实验,实验结果表明,该方法可以有效提升基线模型在跨领域属性级情感分析中的表现. 展开更多
关键词 属性级情感分析 大语言模型(LLM) 迁移学习 数据增强 领域适应
在线阅读 下载PDF
基于大语言模型的中文实体链接实证研究 被引量:1
6
作者 徐正斐 辛欣 《自动化学报》 北大核心 2025年第2期327-342,共16页
近年来,大语言模型(Large language model,LLM)在自然语言处理中取得重大进展.在模型足够大时,大语言模型涌现出传统的预训练语言模型(Pre-trained language model,PLM)不具备的推理能力.为了探究如何将大语言模型的涌现能力应用于中文... 近年来,大语言模型(Large language model,LLM)在自然语言处理中取得重大进展.在模型足够大时,大语言模型涌现出传统的预训练语言模型(Pre-trained language model,PLM)不具备的推理能力.为了探究如何将大语言模型的涌现能力应用于中文实体链接任务,适配了以下四种方法:知识增强、适配器微调、提示学习和语境学习(In-context learning,ICL).在Hansel和CLEEK数据集上的实证研究表明,基于Qwen-7B/ChatGLM3-6B的监督学习方法超过基于小模型的方法,在Hansel-FS数据集上提升3.9%~11.8%,在Hansel-ZS数据集上提升0.7%~4.1%,在CLEEK数据集上提升0.6%~3.7%.而当模型参数量达到720亿时,Qwen-72B的无监督方法实现与监督微调Qwen-7B相近的结果(-2.4%~+1.4%).此外,大语言模型Qwen在长尾实体场景下有明显的优势(11.8%),且随着参数量的增加,优势会更加明显(13.2%).对错误案例进行分析(以下简称错误分析)发现,实体粒度和实体类别相关错误占比较高,分别为36%和25%.这表明在实体链接任务中,准确划分实体边界以及正确判断实体类别是提高系统性能的关键. 展开更多
关键词 实体链接 大语言模型 知识增强 适配器微调 提示学习 语境学习
在线阅读 下载PDF
基于知识提示微调的标书信息抽取方法 被引量:1
7
作者 孙熠衡 刘茂福 《计算机应用》 北大核心 2025年第4期1169-1176,共8页
当前信息抽取任务主要依赖大语言模型(LLM),而标书信息中广泛存在领域术语,模型缺乏相关先验知识,导致微调效率低且抽取性能不佳。此外,模型的抽取和泛化性能在很大程度上依赖于提示信息的质量和提示模板的构建方式。针对上述问题,提出... 当前信息抽取任务主要依赖大语言模型(LLM),而标书信息中广泛存在领域术语,模型缺乏相关先验知识,导致微调效率低且抽取性能不佳。此外,模型的抽取和泛化性能在很大程度上依赖于提示信息的质量和提示模板的构建方式。针对上述问题,提出一种基于提示学习的标书信息抽取方法(TIEPL)。首先,利用生成式信息抽取的提示学习方法对LLM注入领域知识,以实现预训练和微调阶段的统一优化;其次,以LoRA(Low-Rank Adaption)微调方法为框架,单独设计提示训练旁路,并设计标书场景关键词提示模板,从而增强模型信息抽取与提示的双向关联。在自建的招中标数据集上的实验结果表明,相较于次优的UIE(Universal Information Extraction)方法,TIEPL的ROUGE-L(Recall-Oriented Understudy for Gisting Evaluation)和BLEU-4(BiLingual Evaluation Understudy)分别提高1.05和4.71个百分点,能更准确和完整地生成抽取结果,验证了所提方法在提高标书信息抽取准确性和泛化性方面的有效性。 展开更多
关键词 生成式信息抽取 大语言模型 提示学习 lora微调 标书
在线阅读 下载PDF
基于自适应学习的大模型RAG增强方法
8
作者 孙亚茹 林九川 +3 位作者 付文豪 宋铮 杨莹 卢涛 《计算机工程与设计》 北大核心 2025年第7期2004-2011,共8页
针对大模型在检索增强生成中存在的无效检索、结果不相关及信息利用率低等问题,提出一种自适应学习驱动的优化策略。该策略包含自适应检索增强和生成增强组件。前者通过建模领域问题特征,提升对检索意图的理解,结合知识图谱提高检索实... 针对大模型在检索增强生成中存在的无效检索、结果不相关及信息利用率低等问题,提出一种自适应学习驱动的优化策略。该策略包含自适应检索增强和生成增强组件。前者通过建模领域问题特征,提升对检索意图的理解,结合知识图谱提高检索实体的覆盖性和关联性,增强检索精度;后者利用信息压缩与重排序技术,减少冗余信息,增强相关检索数据对生成过程的影响,确保生成内容的质量。实验结果表明,该策略在短文本生成、长文本生成、多选问答和大规模数据检索等任务中取得了较优结果,有效验证了其在高效利用外部数据资源方面的优越性。 展开更多
关键词 大型语言模型 检索增强生成 自适应学习 意图识别 知识图谱 信息压缩 特征建模
在线阅读 下载PDF
大语言模型微调方法研究综述 被引量:2
9
作者 吴春志 赵玉龙 +3 位作者 刘鑫 司念文 张鲁飞 范昊 《中文信息学报》 北大核心 2025年第2期1-26,共26页
近年来,大语言模型成为人工智能领域非常受关注的技术,引发了自然语言处理领域新的研究范式。在大语言模型训练实践中,参数微调是其中非常重要的一个环节,它允许用户在资源受限条件下,通过调整少部分参数来提升模型理解用户指令、解决... 近年来,大语言模型成为人工智能领域非常受关注的技术,引发了自然语言处理领域新的研究范式。在大语言模型训练实践中,参数微调是其中非常重要的一个环节,它允许用户在资源受限条件下,通过调整少部分参数来提升模型理解用户指令、解决下游任务的能力。该文全面回顾了2019—2024年间50余种主要的大语言模型微调方法,从全新的角度进行了系统性的整理和概括,分为全参数微调、部分参数微调、新增参数微调和无参数微调方法,对每种方法的原理、微调位置及方法特点作了总结归纳和比较;接着,从计算的视角出发,着重分析比较了各类方法的参数量、内存消耗和计算量;最后,基于该文的微调方法调研及相关的参数微调实践,对大语言模型微调策略给出建议,以促进该领域的发展。 展开更多
关键词 人工智能 大语言模型 微调 adaptER lora
在线阅读 下载PDF
测井曲线重构的人工智能大模型 被引量:1
10
作者 陈掌星 张永安 +5 位作者 李健 惠钢 孙有壮 李奕政 陈云天 张东晓 《石油勘探与开发》 北大核心 2025年第3期744-756,共13页
为提高测井曲线重构任务的准确性和泛化性,提出一种基于人工智能大语言模型的大模型“盖亚”,并开展模型评估实验。该模型通过微调预训练大语言模型,显著增强了对测井曲线序列模式和空间特征的提取能力。借助适配器(Adapter)技术微调,... 为提高测井曲线重构任务的准确性和泛化性,提出一种基于人工智能大语言模型的大模型“盖亚”,并开展模型评估实验。该模型通过微调预训练大语言模型,显著增强了对测井曲线序列模式和空间特征的提取能力。借助适配器(Adapter)技术微调,模型仅需训练约1/70的本体参数,大幅提高了训练效率。基于250口井的测井数据设计并开展对比实验、消融实验和泛化性实验:对比实验中,将盖亚模型与领域前沿的深度学习小型模型及常规大模型进行横向对比,结果显示盖亚模型的平均绝对误差(MAE)至少降低了20%;消融实验验证了盖亚模型的多组件协同作用,其MAE较单组件模型至少降低了30%;泛化性实验进一步验证了盖亚模型在盲井预测中的优越性能。盖亚模型在测井曲线重构上相较于传统模型表现出明显的准确性和泛化性优势,充分体现了大语言模型在测井领域的应用潜力,为未来的智能测井数据处理提供了新思路。 展开更多
关键词 测井曲线重构 大语言模型 适配器 预训练模型 微调方法
在线阅读 下载PDF
智能博弈决策大模型智能体技术综述 被引量:1
11
作者 谷学强 罗俊仁 +1 位作者 周棪忠 张万鹏 《系统仿真学报》 北大核心 2025年第5期1142-1157,共16页
要:人工智能技术的发展极大推动了智能博弈决策问题求解范式的变革,从最优解、均衡解到适变解,如何构建基于生成式大模型的智能博弈自适应决策智能体充满挑战。博弈强对抗环境中兵力分配和多实体协同是研究排兵布阵和作战协同的核心课... 要:人工智能技术的发展极大推动了智能博弈决策问题求解范式的变革,从最优解、均衡解到适变解,如何构建基于生成式大模型的智能博弈自适应决策智能体充满挑战。博弈强对抗环境中兵力分配和多实体协同是研究排兵布阵和作战协同的核心课题。基于技能、排序和偏好元博弈模型构建的策略强化学习、策略博弈树搜索与策略偏好投票选择方法,设计了满足生成时规划的大模型智能体架构。该架构可对齐指挥员意图,具有可行性、适用性、扩展性,可为自适应决策过程提供可解释性策略推荐。从基座模型构建、目标引导博弈强化学习和开放式元博弈策略学习分析了关键技术需求。期望为强化学习类模型、博弈学习类模型与生成式大语言模型结合的交叉研究提供参考。 展开更多
关键词 关关键键词词:自适应 兵力分配 多实体协同 多智能体强化学习 元博弈 大语言模型 思维链
在线阅读 下载PDF
融合大模型与图神经网络的电力设备缺陷诊断 被引量:8
12
作者 李莉 时榕良 +1 位作者 郭旭 蒋洪鑫 《计算机科学与探索》 CSCD 北大核心 2024年第10期2643-2655,共13页
电力系统中不同装置设备的缺陷评级和分析处理常受运维人员主观性影响,导致同一缺陷文本描述出现不同的严重程度评级。专业知识的差异也导致诊断分析差异和诊断效率不同。为提升缺陷诊断的准确性和效率,提出一种基于图神经网络的缺陷文... 电力系统中不同装置设备的缺陷评级和分析处理常受运维人员主观性影响,导致同一缺陷文本描述出现不同的严重程度评级。专业知识的差异也导致诊断分析差异和诊断效率不同。为提升缺陷诊断的准确性和效率,提出一种基于图神经网络的缺陷文本评级分类方法和大模型智能诊断分析助手。构建专业词典,使用自然语言处理算法规范化文本描述。通过统计方法,优化缺陷文本的语义表示。集成图注意力神经网络和RoBERTa模型对缺陷文本进行精确评级分类。基于大语言模型Qwen1.5-14B-Chat进行低秩适配(LoRA)微调训练得到电力设备诊断大模型Qwen-ElecDiag,结合检索增强生成技术开发设备缺陷诊断助手。此外,整理提供微调电力设备诊断大模型的指令数据集。对比实验结果表明,提出的基于图神经网络的缺陷评级分类方法在准确性上较最优基准模型BERT提升近8个百分点;诊断助手的电力知识以及缺陷诊断能力得到提升。通过提高缺陷评级的准确率并提供全面专业化诊断建议,不仅提高电力设备运维的智能化水平,也为其他垂直领域的智能运维提供新的解决方案。 展开更多
关键词 电力系统 缺陷诊断 图神经网络 大语言模型 低秩适配(lora)微调 检索增强生成 智能运维
在线阅读 下载PDF
大模型驱动的科技政策法规问答系统研究 被引量:3
13
作者 向小伟 申艳光 +3 位作者 胡明昊 闫天伟 罗威 罗准辰 《计算机科学与探索》 CSCD 北大核心 2024年第9期2349-2360,共12页
科技政策法规问答系统(Q&A)在帮助公众理解和应用科技法规方面发挥关键作用。大语言模型(LLM)可以显著提升科技政策法规问答系统的准确性和效率。然而,基于大语言模型的科技政策法规问答系统仍然存在以下问题:缺乏大规模高质量的科... 科技政策法规问答系统(Q&A)在帮助公众理解和应用科技法规方面发挥关键作用。大语言模型(LLM)可以显著提升科技政策法规问答系统的准确性和效率。然而,基于大语言模型的科技政策法规问答系统仍然存在以下问题:缺乏大规模高质量的科技政策法规问答数据集,且现有自动构建大规模数据集的方法在引用和整合政策法规知识方面存在不足;问答系统在处理科技政策法规问题时,专业性、准确性不足且模型知识更新滞后。为解决这些问题,提出了一种检索增强自提示的问答数据集构建方法,并构建了一个大规模高质量的科技政策法规问答数据集;同时,构建了科技政策法规问答系统,该系统结合了经过低秩自适应(LoRA)微调技术优化的大语言模型与科技政策法规知识库,并运用提示学习技术,来引导系统生成准确的答案。实验结果显示,构建的问答数据集在引用和整合科技政策法规知识方面,比传统方法构建的问答数据集有显著提升;相较于通用大语言模型驱动的问答系统,该问答系统在各项指标上也有明显提高。 展开更多
关键词 大语言模型 问答数据集 低秩自适应微调 提示学习 科技政策法规 问答系统
在线阅读 下载PDF
融合在线检索和量化低秩适配器微调范式的新闻文稿生成 被引量:1
14
作者 励琦 刘志强 +3 位作者 李岚 向宗元 毛瑞琛 陈群 《计算机应用》 CSCD 北大核心 2024年第S01期34-38,共5页
现有大语言模型(LLM)由于存在信息滞后性,在特定风格新闻稿件生成任务上存在生成内容捏造、行文不流畅连贯等问题。为了缓解这些问题,提出一套基于实时在线的web_search技术和量化低秩适配器(QLoRA)微调技术的新闻文稿生成系统的解决方... 现有大语言模型(LLM)由于存在信息滞后性,在特定风格新闻稿件生成任务上存在生成内容捏造、行文不流畅连贯等问题。为了缓解这些问题,提出一套基于实时在线的web_search技术和量化低秩适配器(QLoRA)微调技术的新闻文稿生成系统的解决方案。首先,利用Bing和Google提供的API根据给定的新闻标题,获取最新的新闻素材集合;其次,利用语义相关性模型和摘要模型对初始素材集合进行筛选和文本处理,选取准确的新闻内容;再次,设计动态的prompt模板综合处理检索到的新闻素材,并在prompt中加入新闻风格约束提示词;最后,将完整的prompt提示词指令输入经过QLoRA微调的LLM中,生成新闻文稿。实验结果显示,在人工整理的热点新闻标题数据集上,所提方案生成的新闻在内容正确性、逻辑连贯性等多维人工评估标准上的平均准确率达到90%,满足实际生产应用的需求,有效提高了新闻生产的效率和质量。目前,该系统已在杭州文广集团内部成功部署应用。 展开更多
关键词 在线检索 量化低秩适配器 微调范式 大语言模型 文稿生成 提示词
在线阅读 下载PDF
基于联邦分割学习与低秩适应的RoBERTa预训练模型微调方法 被引量:5
15
作者 谢思静 文鼎柱 《数据采集与处理》 CSCD 北大核心 2024年第3期577-587,共11页
微调后的大语言模型(Large language models,LLMs)在多任务中表现出色,但集中式训练存在用户隐私泄漏的风险。联邦学习(Federated learning,FL)通过本地训练避免了数据共享,但LLMs庞大的参数量对资源受限的设备和通信带宽构成挑战,导致... 微调后的大语言模型(Large language models,LLMs)在多任务中表现出色,但集中式训练存在用户隐私泄漏的风险。联邦学习(Federated learning,FL)通过本地训练避免了数据共享,但LLMs庞大的参数量对资源受限的设备和通信带宽构成挑战,导致在边缘网络中部署困难。结合分割学习(Split learning,SL),联邦分割学习可以有效解决这一问题。基于模型深层权重的影响更为显著,以及对部分层的训练准确率略低于整体模型训练的发现,本文按照Transformer层对模型进行分割,同时引入低秩适应(Low⁃rank adaption,LoRA)进一步降低资源开销和提升安全性。因此,在设备端,仅对最后几层进行低秩适应和训练,然后上传至服务器进行聚合。为了降低开销并保证模型性能,本文提出了基于联邦分割学习与LoRA的RoBERTa预训练模型微调方法。通过联合优化边缘设备的计算频率和模型微调的秩,在资源受限的情况下最大化秩,提高模型的准确率。仿真结果显示,仅训练LLMs最后3层的情况下,在一定范围内(1~32)增加秩的取值可以提高模型的准确率。同时,增大模型每轮的容忍时延和设备的能量阈值可以进一步提升模型的准确率。 展开更多
关键词 大语言模型 低秩适应 联邦学习 分割学习 联合优化
在线阅读 下载PDF
基于大模型微调范式的绘画风格模拟方法 被引量:2
16
作者 马诗洁 徐华艺 +3 位作者 李聪聪 耿卫东 沈华清 李萌坚 《计算机应用》 CSCD 北大核心 2024年第S01期268-272,共5页
现有的微调大模型生成指定风格化图像的方法能力有限,存在布局风格、细节风格同目标风格不一致的问题,为了提高大模型风格模拟一致性能力,提出一种微调大模型部分注意力参数和低秩自适应(LoRA)相结合的方法并用于红色山水风格的绘画生... 现有的微调大模型生成指定风格化图像的方法能力有限,存在布局风格、细节风格同目标风格不一致的问题,为了提高大模型风格模拟一致性能力,提出一种微调大模型部分注意力参数和低秩自适应(LoRA)相结合的方法并用于红色山水风格的绘画生成。首先,以少量绘画样本微调文生图大模型的部分注意力参数;其次,冻结文生图(文本-图像)大模型,结合LoRA微调方法在模型中注入可训练层进行训练;最后,将第2步中的可训练层插入第1步微调过的大模型中进行推理。实验结果表明,与目前流行的风格定制方法相比,所提方法在保证文本可控性的同时,不仅保证了绘画的整体布局与训练集图像风格一致,同时在绘画细节上也与目标风格具有高一致性。在红色山水画风格模拟方面的实验结果表明,生成的红色山水画更接近训练集的风格,并且生成的绘画风格更符合艺术从业者的风格一致性评价。目前,基于所提方法的红色山水画互动生成系统已经在中国共产党杭州历史馆对外开放展示。 展开更多
关键词 文本-图像大模型 微调 绘画风格 少量样本 图像生成 DreamBooth 低秩自适应
在线阅读 下载PDF
大语言模型引导的文本摘要技术与系统 被引量:1
17
作者 黄君豪 朱锦文 +2 位作者 向宗元 李萌坚 毛瑞琛 《计算机应用》 CSCD 北大核心 2024年第S01期29-33,共5页
在实际业务中时,常面临文本与它对应的其他模态在时间响应上难以同步的问题。例如,数字人实时手语表演无法与新闻口播同步播放。为了解决长度可控问题,提出一种基于大语言模型(LLM)的文本摘要解决方案,旨在保持原文语义不变的前提下将... 在实际业务中时,常面临文本与它对应的其他模态在时间响应上难以同步的问题。例如,数字人实时手语表演无法与新闻口播同步播放。为了解决长度可控问题,提出一种基于大语言模型(LLM)的文本摘要解决方案,旨在保持原文语义不变的前提下将文本压缩至指定长度。首先通过模板调优和人工评估的方式,确定最适合长度可控文本摘要的LLM和模板;在此基础上,利用ChatGPT得到一定量优质的满足长度需求的文本摘要训练样本;其次,结合低秩自适应微调(LoRA)技术,利用生成的数据样本集对选定的大语言模型Baichuan-13B-Chat进行微调。在推理阶段,通过微调后的LLM生成多个结果和文本筛选模块打分,最终得到语义相对完整且长度满足要求的摘要文本。实验结果表明,所提方案在亚运手语新闻数据中指标显著提升,人工评估的平均满意度达到88.53%,整体压缩达标率达到73.7%,基本满足实际生产应用的需求。 展开更多
关键词 文本摘要 长度可控 大语言模型 低秩自适应微调 模板调优 文本筛选
在线阅读 下载PDF
融合思维链和低秩自适应微调的方面情感三元组抽取 被引量:1
18
作者 曾碧卿 陈鹏飞 姚勇涛 《计算机工程》 CAS CSCD 北大核心 2024年第7期53-62,共10页
方面情感三元组抽取(ASTE)任务是方面级情感分析的重要子任务之一,传统的监督学习方法在该任务上取得了SOTA或接近SOTA的效果。然而,随着深度神经网络的发展,生成式大型语言模型(LLM)为该任务带来了更多的可能性。目前大多数工作都是直... 方面情感三元组抽取(ASTE)任务是方面级情感分析的重要子任务之一,传统的监督学习方法在该任务上取得了SOTA或接近SOTA的效果。然而,随着深度神经网络的发展,生成式大型语言模型(LLM)为该任务带来了更多的可能性。目前大多数工作都是直接对LLM进行微调,但是忽略了LLM的幻觉现象,导致性能下降。提出一种融合思维链技术和LLM低秩自适应(Lo RA)微调LFC方法,实现生成式的ASTE新范式,以提升任务性能。在LFC中,首先基于思维链技术,通过人工构造少量推理样本,并利用LLM生成具有推理结构的增强数据集。将增强数据集用于微调Chat GLM3-6B模型的学习。在微调过程中,采用Lo RA微调技术提高在低资源环境下适配ASTE任务的效果。实验结果表明,LFC方法相比于最优的基线模型在Res14、Lap14、Res15和Res164个数据集上的F1值分别提升8.37、12.31、11.07和8.43个百分点,该方法不仅能够准确地识别三元组,而且在一定程度上优化了LLM的幻觉现象。 展开更多
关键词 方面情感三元组抽取 大型语言模型 低秩自适应微调 思维链 提示学习
在线阅读 下载PDF
基于6W2H的大语言模型思维链提示框架WH-CoT 被引量:2
19
作者 陈孟科 边赟 +1 位作者 梁云浩 王海全 《计算机应用》 CSCD 北大核心 2024年第S2期1-6,共6页
针对当前思维链(CoT)提示技术缺乏进一步人类策略的指导以及对小规模大语言模型(LLM)应用效果不佳的问题,提出一种基于6W2H问题分解策略的CoT提示框架WH-CoT (6W2H Chain-of-Thought)。首先,利用Sentence-BERT模型对任务数据集进行聚类... 针对当前思维链(CoT)提示技术缺乏进一步人类策略的指导以及对小规模大语言模型(LLM)应用效果不佳的问题,提出一种基于6W2H问题分解策略的CoT提示框架WH-CoT (6W2H Chain-of-Thought)。首先,利用Sentence-BERT模型对任务数据集进行聚类采样并划分为训练集和测试集;其次,在训练集中对所有样本进行元素提取、问题分解、答案段落构建和答案生成等操作以形成CoT,进而构建任务语料库;最后,在推理阶段,自适应地从语料库中采样演示样本并添加至提示词,使得模型结合提示词生成测试问题的答案。对于Qwen-turbo模型,在算术推理任务上,WH-CoT的平均准确率相较于主流的Zero-Shot-CoT和Manual-CoT分别提升了3.35和4.27个百分点;在多跳推理任务上,WH-CoT的总性能提升比在预测与答案完全相同的比例(EM)上相较于Zero-Shot-CoT和Manual-CoT分别提升了36和111个百分点。另外,对于中小规模的Qwen-14B-Chat和Qwen-7B-Chat模型,WH-CoT的总性能提升比在EM和F1上均高于Zero-Shot-CoT和Manual-CoT。可见WH-CoT通过进一步结合人类策略与机器智能,对于不同规模的LLM,均能有效地提升它们在算术推理和多跳推理任务上的推理性能。 展开更多
关键词 6W2H 思维链提示 提示学习 大语言模型 上下文学习 自适应采样
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部