期刊文献+
共找到30篇文章
< 1 2 >
每页显示 20 50 100
基于网络大数据与人工智能生成内容(AIGC)微调模型的绿道辅助设计路径
1
作者 吴一凡 孟露 李倞 《风景园林》 北大核心 2025年第7期96-105,共10页
【目的】中国城镇化建设进入质量提升阶段,风景园林设计实践呈现出细分化、定制化、专业化的发展趋势,在大模型基础上结合特定需求开展微调训练,针对细分场景辅助设计师开展高效设计决策具有重要价值。【方法】采用为设计进行研究(Resea... 【目的】中国城镇化建设进入质量提升阶段,风景园林设计实践呈现出细分化、定制化、专业化的发展趋势,在大模型基础上结合特定需求开展微调训练,针对细分场景辅助设计师开展高效设计决策具有重要价值。【方法】采用为设计进行研究(Research for Design,RfD)方法,基于网络大数据与人工智能生成内容(artificial intelligence generated content,AIGC)微调模型技术,构建“大数据收集—智能评价—微调模型构建—设计辅助生成”的风景园林辅助设计路径框架,并对绿道场景进行实例应用。【结果】通过应用辅助设计路径框架,获得针对绿道场景的生成微调模型,并提出“强控制”与“弱控制”两大场景生成控制的有效范式。【结论】在此基础上,探讨风景园林辅助设计路径框架的适应潜力与局限性,为未来风景园林人工智能辅助设计高效研究决策提供参考。 展开更多
关键词 风景园林 设计研究 人工智能辅助设计 街景影像 微调模型 大数据
在线阅读 下载PDF
基于微调扩散模型的智能化衬衫款式图生成
2
作者 朱伟明 于家蓓 《服装学报》 北大核心 2025年第3期260-267,共8页
为提高服装设计产业的效率并降低成本,基于人工智能图像生成技术,通过低秩自适应微调StableDiffusion大模型,实现端到端的款式图快速生成。以衬衫为例,通过分析扩散模型,构建衬衫款式图数据集并进行模型训练,同时采用结构相似性算法和... 为提高服装设计产业的效率并降低成本,基于人工智能图像生成技术,通过低秩自适应微调StableDiffusion大模型,实现端到端的款式图快速生成。以衬衫为例,通过分析扩散模型,构建衬衫款式图数据集并进行模型训练,同时采用结构相似性算法和峰值信噪比对生成效果进行量化评估。实验结果表明,微调后的模型在结构相似性算法和峰值信噪比指标上分别提升了22.69%和68.59%,且生成的款式图在结构、构图、风格、细节及线条质量上均显著优于微调前。该方法为服装智能设计提供了高效、低成本的新思路,具备实际推广潜力。 展开更多
关键词 人工智能生成内容 扩散模型 微调模型 服装设计 服装款式图
在线阅读 下载PDF
基于扩散模型微调的局部定制图像编辑算法
3
作者 杜佳俊 兰红 王超凡 《计算机应用研究》 北大核心 2025年第2期623-629,共7页
针对现有基于扩散模型的图像编辑方法存在无法灵活控制图像编辑区域以及生成个性化内容等问题,提出一种基于扩散模型微调的局部定制图像编辑算法。该方法借助稳定扩散模型作为基础框架,首先从给定的一组图像和词嵌入中学习概念嵌入,并... 针对现有基于扩散模型的图像编辑方法存在无法灵活控制图像编辑区域以及生成个性化内容等问题,提出一种基于扩散模型微调的局部定制图像编辑算法。该方法借助稳定扩散模型作为基础框架,首先从给定的一组图像和词嵌入中学习概念嵌入,并且为了提高模型的训练效率,解决由少量数据训练而产生的过拟合问题,在微调过程中通过分析训练过程中各层参数变化的程度降低训练参数数量;然后在联合分割模型中通过局部选择步骤得到掩码特征,进一步精确识别编辑区域边界,从而保护了非编辑区域内容;最后将参考图像、掩码特征和与定制概念绑定相关的条件文本描述共同输入微调模型中,使其在编辑区域精确生成定制内容,增加了在编辑区域生成用户定制内容的灵活性。在DreamBench数据集上的实验结果显示,相较于其他先进方法,该方法在CLIP-T、MS-SSIM评价指标上分别提高了12.2%、13.9%,表明该方法在文本对齐和结构一致性等方面均优于其他的主流方法,为用户提供了更加准确的个性化概念图像编辑方法。 展开更多
关键词 图像编辑 扩散模型 模型微调 局部定制
在线阅读 下载PDF
大模型微调的多领域机器翻译方法综述 被引量:1
4
作者 陈子建 王斯日古楞 斯琴图 《计算机科学与探索》 北大核心 2025年第4期916-928,共13页
随着机器翻译技术的快速发展,基于预训练大模型的机器翻译方法已在自然语言处理领域占据重要地位。然而,由于不同领域之间语言特征、词汇风格和表达方式的显著差异,单一预训练模型在多领域翻译任务中难以实现高效且稳定的性能。为此,聚... 随着机器翻译技术的快速发展,基于预训练大模型的机器翻译方法已在自然语言处理领域占据重要地位。然而,由于不同领域之间语言特征、词汇风格和表达方式的显著差异,单一预训练模型在多领域翻译任务中难以实现高效且稳定的性能。为此,聚焦于多领域机器翻译任务中大模型微调技术的关键问题,系统性地综述了微调技术的核心原理、主要方法及应用效果,重点分析了全参数微调、参数高效微调和提示微调三类策略的性能表现与适用场景。深入探讨了不同微调方法的优势与局限性,重点分析了在资源受限条件下如何通过高效微调策略平衡领域泛化能力与任务特异性,展示了参数高效微调与提示微调在资源利用效率和领域适应性方面的显著优势。通过对比分析与实验验证,进一步评估了不同微调策略在领域迁移和资源利用方面的实际效果,并通过案例分析验证了其有效性。未来的研究方向应重点关注资源的高效利用、模型的领域自适应能力,以及翻译质量和鲁棒性的提升,从而推动多领域机器翻译系统在性能与适应性方面的持续发展。 展开更多
关键词 模型微调 多领域机器翻译 全参数微调 参数高效微调 提示微调
在线阅读 下载PDF
图基础模型研究进展与挑战:图神经网络的视角
5
作者 吴涛 聂发志 +4 位作者 先兴平 王超 袁霖 乔少杰 牛伟纳 《通信学报》 北大核心 2025年第7期226-248,共23页
图基础模型(GFM)是基础模型思想在图学习领域中的延伸,是在广泛图数据上预训练并微调适配多种下游任务的图模型。与借助大语言模型(LLM)实现GFM的技术路线不同,主要关注从图神经网络(GNN)的角度构建GFM。首先,分析了GFM的研究现状并定... 图基础模型(GFM)是基础模型思想在图学习领域中的延伸,是在广泛图数据上预训练并微调适配多种下游任务的图模型。与借助大语言模型(LLM)实现GFM的技术路线不同,主要关注从图神经网络(GNN)的角度构建GFM。首先,分析了GFM的研究现状并定义了关键概念。其次,总结了GFM骨干架构和基础表示单元的研究成果。再次,根据代理任务和微调策略的不同,分别总结了图模型的预训练技术与微调方法。然后,介绍了与GFM相关的评价指标。最后,分析了面临的挑战并展望了未来的研究方向。 展开更多
关键词 图基础模型 图神经网络 预训练 模型微调 提示调优
在线阅读 下载PDF
基于改进可控扩散模型的缺陷图像生成算法
6
作者 陈广庆 陈雅惠 +2 位作者 周鹏 刘梓煜 陈玉伦 《电子测量技术》 北大核心 2025年第6期152-160,共9页
工业场景下,缺陷工件的获取和标注非常困难,对工件缺陷检测带来极大的阻碍。通过少量真实缺陷样本生成大量缺陷样本,极大地缓解了缺陷样本稀缺的问题,但是现有的缺陷生成方法普遍存在生成缺陷样本的表观真实性差和与掩模对齐性差的问题... 工业场景下,缺陷工件的获取和标注非常困难,对工件缺陷检测带来极大的阻碍。通过少量真实缺陷样本生成大量缺陷样本,极大地缓解了缺陷样本稀缺的问题,但是现有的缺陷生成方法普遍存在生成缺陷样本的表观真实性差和与掩模对齐性差的问题。针对现有问题,文中提出了一种新颖的可控扩散模型AnomalyAlign来生成与掩膜高度对齐的逼真工业缺陷图像。AnomalyAlign在继承文生图大模型Stable Diffusion的先验知识基础上,提出了强语义对齐文本提示生成器,通过该生成器获取语义层面上与真实图像更加对齐的文本提示,促进了模型的收敛;同时,AnomalyAlign还提出了一种缺陷对齐损失来提高生成的缺陷图像和掩模之间的对齐性。通过MVTec-AD上的大量实验验证,AnomalyAlign可以生成与掩模高度对齐的逼真且多样化的缺陷图像,并有效地提升了下游缺陷检测任务的性能。 展开更多
关键词 工业缺陷检测 可控扩散模型 图像生成 微调模型
在线阅读 下载PDF
融合大模型微调与图神经网络的知识图谱问答 被引量:4
7
作者 陈俊臻 王淑营 罗浩然 《计算机工程与应用》 CSCD 北大核心 2024年第24期166-176,共11页
传统知识图谱问答系统在处理自然语言问句时,常因语义解析不精确而导致错误。为解决这一问题,提出一种融合大模型微调和图神经网络的知识图谱问答方法。收集问题并定义问题的逻辑形式;利用大型预训练语言模型的强大语义解析能力,通过对... 传统知识图谱问答系统在处理自然语言问句时,常因语义解析不精确而导致错误。为解决这一问题,提出一种融合大模型微调和图神经网络的知识图谱问答方法。收集问题并定义问题的逻辑形式;利用大型预训练语言模型的强大语义解析能力,通过对问题及其对应逻辑形式构成的问答对进行微调,提升问题解析的精度;采用模糊集方法增强微调后的逻辑形式,提高其检索精度;利用图神经网络对这些逻辑形式进行关系投影和逻辑运算获取最终答案。在通用领域标准数据集WebQSP和ComplexWebQuestions上的实验验证表明,该方法在F1、Hit@1和ACC这三个指标上均优于基准模型。同时,方法也在垂直领域风电装备数据集、高速列车数据集上进行了应用和验证。 展开更多
关键词 知识图谱问答 模型微调 逻辑形式 图神经网络检索
在线阅读 下载PDF
基于交替语言数据重构方法的跨语言文本相似度模型
8
作者 王轶 王坤宁 刘铭 《吉林大学学报(理学版)》 北大核心 2025年第2期551-558,共8页
针对现有多语言模型在预训练过程中对多语言数据集的利用效率低,导致跨语言上下文学习能力不足,进而产生语言偏差的问题,提出一种基于交替语言数据重构方法的跨语言文本相似度模型.该方法通过对称地替换平行语料中的中英文词语,形成重... 针对现有多语言模型在预训练过程中对多语言数据集的利用效率低,导致跨语言上下文学习能力不足,进而产生语言偏差的问题,提出一种基于交替语言数据重构方法的跨语言文本相似度模型.该方法通过对称地替换平行语料中的中英文词语,形成重构的预训练文本对,并利用上述文本对对多语言大模型mBERT(BERT-based-multilingual)进行基于数据重构的针对性预训练和微调处理.为验证该模型的可行性,在联合国平行语料数据集上进行实验,实验结果表明,该模型的相似度查准率优于mBERT和其他两种基线模型,其不仅可以进一步提高跨语言信息检索的准确性,并且可以降低多语言自然语言处理任务的研究成本. 展开更多
关键词 mBERT模型 文本相似度 多语言预训练模型 模型微调
在线阅读 下载PDF
基于扩散模型微调的高保真图像编辑 被引量:2
9
作者 刘雨生 肖学中 《计算机应用》 CSCD 北大核心 2024年第11期3574-3580,共7页
针对目前主流的图像编辑方法存在任务单一、操作不友好、保真度低等问题,提出一种基于扩散模型对图像进行高保真编辑的方法。该方法将目前主流的稳定扩散模型作为骨干网络,首先使用低秩适用(LoRA)方法对模型进行微调,使模型能够更好地... 针对目前主流的图像编辑方法存在任务单一、操作不友好、保真度低等问题,提出一种基于扩散模型对图像进行高保真编辑的方法。该方法将目前主流的稳定扩散模型作为骨干网络,首先使用低秩适用(LoRA)方法对模型进行微调,使模型能够更好地重建原始图像;其次,使用微调后的模型将图片与简单的提示词通过设计的框架进行推理,最终生成编辑后图像。另外,在上述方法基础上扩展提出了双层U-Net结构用于特定需求的图像编辑任务以及视频合成。与领先的方法 Imagic、DiffEdit、InstructPix2Pix在Tedbench数据集上的对比实验结果显示:所提方法能够对图像进行包括非刚性编辑的多种编辑任务,可编辑性强;而且在学习感知块相似性(LPIPS)指数上比Imagic下降了30.38%,表明该方法具有更高的保真度。 展开更多
关键词 扩散模型 图像编辑 低秩适用 模型微调 U-Net
在线阅读 下载PDF
基于大语言模型的多输入中文拼写纠错方法
10
作者 马灿 黄瑞章 +2 位作者 任丽娜 白瑞娜 伍瑶瑶 《计算机应用》 北大核心 2025年第3期849-855,共7页
中文拼写纠错(CSC)是自然语言处理(NLP)中的一项重要研究任务,现有的基于大语言模型(LLM)的CSC方法由于LLM的生成机制,会生成和原文存在语义偏差的纠错结果。因此,提出基于LLM的多输入CSC方法。该方法包含多输入候选集合构建和LLM纠错... 中文拼写纠错(CSC)是自然语言处理(NLP)中的一项重要研究任务,现有的基于大语言模型(LLM)的CSC方法由于LLM的生成机制,会生成和原文存在语义偏差的纠错结果。因此,提出基于LLM的多输入CSC方法。该方法包含多输入候选集合构建和LLM纠错两阶段:第一阶段将多个小模型的纠错结果构建为多输入候选集合;第二阶段使用LoRA(Low-Rank Adaptation)对LLM进行微调,即借助LLM的推理能力,在多输入候选集合中预测出没有拼写错误的句子作为最终的纠错结果。在公开数据集SIGHAN13、SIGHAN14、SIGHAN15和修正后的SIGHAN15上的实验结果表明,相较于使用LLM直接生成纠错结果的方法Prompt-GEN-1,所提方法的纠错F1值分别提升了9.6、24.9、27.9和34.2个百分点,相较于表现次优的纠错小模型,所提方法的纠错F1值分别提升了1.0、1.1、0.4和2.4个百分点,验证了所提方法能提升CSC任务的效果。 展开更多
关键词 中文拼写纠错 大语言模型 模型集成 模型微调 提示学习
在线阅读 下载PDF
基于解耦知识蒸馏的视觉大模型轻量化技术研究
11
作者 马增琛 孙彦文 +2 位作者 南博 武永祥 张凯歌 《火力与指挥控制》 北大核心 2025年第7期199-207,共9页
面向复杂战场环境的目标提取任务,构建了一种基于解耦知识蒸馏与模型微调的视觉分割大模型轻量化机制。对基础模型中参数量较大的图像编码器单独进行知识蒸馏,在此基础上对全模型进行任务导向的领域自适应微调训练。实验表明,方法能够... 面向复杂战场环境的目标提取任务,构建了一种基于解耦知识蒸馏与模型微调的视觉分割大模型轻量化机制。对基础模型中参数量较大的图像编码器单独进行知识蒸馏,在此基础上对全模型进行任务导向的领域自适应微调训练。实验表明,方法能够在保证精度的前提下,提高对轻量化模型训练速度,实现复杂背景环境目标的有效提取。 展开更多
关键词 视觉大模型 SAM 知识蒸馏 模型微调 图像分割
在线阅读 下载PDF
基于全局信息的卷积神经网络模型剪枝微调优化方法 被引量:6
12
作者 孙文宇 曹健 +1 位作者 李普 刘瑞 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第4期790-794,共5页
为解决因卷积神经网络模型规模大,模型剪枝方法引起的精度下降问题,提出一种模型剪枝微调优化方法。该方法引入原卷积神经网络模型权重全局信息至剪枝后模型,使原模型信息体现在剪枝后模型的权重上,提升剪枝后模型的精度。在图像分类任... 为解决因卷积神经网络模型规模大,模型剪枝方法引起的精度下降问题,提出一种模型剪枝微调优化方法。该方法引入原卷积神经网络模型权重全局信息至剪枝后模型,使原模型信息体现在剪枝后模型的权重上,提升剪枝后模型的精度。在图像分类任务和目标检测任务中的实验结果表明,所提出的微调优化方法可获得更大的压缩率和更小的模型精度损失。 展开更多
关键词 卷积神经网络 模型剪枝微调 全局信息 图像分类 目标检测
在线阅读 下载PDF
基于DreamBooth的傣锦图案人工智能生成模型 被引量:3
13
作者 纪乐福 王永江 李启正 《服装学报》 CAS 北大核心 2024年第5期433-442,共10页
为推动传统文化引领下的现代纺织图案设计发展,提出了一种利用人工智能生成民族纺织图案的模型。以傣族织锦图案为例,对傣族织锦实物图案进行矢量化处理,为每张图片编写对应文本标签,并以此为训练集;选取适用于傣锦的预训练模型,使用Dre... 为推动传统文化引领下的现代纺织图案设计发展,提出了一种利用人工智能生成民族纺织图案的模型。以傣族织锦图案为例,对傣族织锦实物图案进行矢量化处理,为每张图片编写对应文本标签,并以此为训练集;选取适用于傣锦的预训练模型,使用DreamBooth方法微调现有的文本-图像模型。对模型训练效果进行分析,得出V1模型是一个具有良好拟合度和图像生成效果的文本-图像生成模型。 展开更多
关键词 模型微调 传统纺织图案 傣锦图案 DreamBooth方法 文本-图像生成模型
在线阅读 下载PDF
基于API序列和预训练模型的恶意软件检测 被引量:1
14
作者 窦建民 师智斌 +2 位作者 于孟洋 霍帅 张舒娟 《计算机工程与设计》 北大核心 2024年第4期974-981,共8页
针对现有方法存在特征表达受限、无法捕获API序列全局语义信息,且恶意软件数据集通常包含大量无标注数据,无法直接进行有监督学习等问题,利用自然语言预训练模型技术,提出一种基于API调用序列和预训练模型的恶意软件检测方法。使用原始... 针对现有方法存在特征表达受限、无法捕获API序列全局语义信息,且恶意软件数据集通常包含大量无标注数据,无法直接进行有监督学习等问题,利用自然语言预训练模型技术,提出一种基于API调用序列和预训练模型的恶意软件检测方法。使用原始API序列构建分词器;基于BERT模型构建出动态掩码序列模型进行无监督学习的预训练,同时获取API序列的全局动态编码表示;使用该编码构造检测模型。实验结果表明,所提方法能有效检测出恶意软件。 展开更多
关键词 恶意软件检测 预训练模型 无监督学习 动态掩码 软件调用序列 模型微调 编码表示
在线阅读 下载PDF
面向鲁棒口语理解的声学组块混淆语言模型微调算法 被引量:2
15
作者 李荣军 郭秀焱 杨静远 《智能系统学报》 CSCD 北大核心 2023年第1期131-137,共7页
利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果。但是,当将其应用于口语语言理解(spoken language understanding,SLU)任务时,由于前端语音识... 利用预训练语言模型(pre-trained language models,PLM)提取句子的特征表示,在处理下游书面文本的自然语言理解的任务中已经取得了显著的效果。但是,当将其应用于口语语言理解(spoken language understanding,SLU)任务时,由于前端语音识别(automatic speech recognition,ASR)的错误,会导致SLU精度的下降。因此,本文研究如何增强PLM提高SLU模型对ASR错误的鲁棒性。具体来讲,通过比较ASR识别结果和人工转录结果之间的差异,识别出连读和删除的文本组块,通过设置新的预训练任务微调PLM,使发音相近的文本组块产生类似的特征嵌入表示,以达到减轻ASR错误对PLM影响的目的。通过在3个基准数据集上的实验表明,所提出的方法相比之前的方法,精度有较大提升,验证方法的有效性。 展开更多
关键词 自然语言理解 口语语言理解 意图识别 预训练语言模型 语音识别 鲁棒性 语言模型微调 深度学习
在线阅读 下载PDF
垂直领域大模型的定制化:理论基础与关键技术 被引量:21
16
作者 陈浩泷 陈罕之 +3 位作者 韩凯峰 朱光旭 赵奕晨 杜滢 《数据采集与处理》 CSCD 北大核心 2024年第3期524-546,共23页
随着ChatGPT等基于大模型的产品展现出强大的通用性能,学术界和工业界正积极探索如何将这些模型适配到特定行业和应用场景中,即进行垂直领域大模型的定制化。然而,现有的通用大模型可能无法完全适配特定领域数据的格式,或不足以捕捉该... 随着ChatGPT等基于大模型的产品展现出强大的通用性能,学术界和工业界正积极探索如何将这些模型适配到特定行业和应用场景中,即进行垂直领域大模型的定制化。然而,现有的通用大模型可能无法完全适配特定领域数据的格式,或不足以捕捉该领域的独特需求。因此,本文旨在探讨垂直领域大模型定制化的方法论,包括大模型的定义和类别、通用架构的描述、大模型有效性背后的理论基础,以及几种可行的垂直领域大模型构建方法,期望通过这些内容为相关领域的研究者和从业者在垂直领域大模型定制化方面提供指导和参考。 展开更多
关键词 人工智能 垂直领域大模型 多模态大模型 预训练大模型 模型微调
在线阅读 下载PDF
铁路自然语言大模型关键技术研究及应用展望 被引量:6
17
作者 史天运 李新琴 +3 位作者 代明睿 史维峰 李国华 杜文然 《中国铁路》 北大核心 2024年第7期7-14,共8页
人工智能自然语言大模型的涌现为行业深度赋能带来了新的曙光,研究铁路自然语言大模型关键技术及应用,对促进和统筹铁路人工智能发展具有重要意义。根据铁路人工智能应用需求,提出铁路自然语言大模型应用场景;依托铁路人工智能平台,设... 人工智能自然语言大模型的涌现为行业深度赋能带来了新的曙光,研究铁路自然语言大模型关键技术及应用,对促进和统筹铁路人工智能发展具有重要意义。根据铁路人工智能应用需求,提出铁路自然语言大模型应用场景;依托铁路人工智能平台,设计铁路自然语言大模型的总体架构,研究自然语言大模型关键技术,构建面向智能问答的铁路行业大模型,并以实际数据进行模型验证;最后从铁路运输组织、铁路运营安全、旅客服务方面对铁路自然语言大模型的发展和应用进行展望。 展开更多
关键词 智能高铁 人工智能 铁路自然语言大模型 应用场景 模型架构 模型微调 检索增强生成 铁路知识问答
在线阅读 下载PDF
智能包装设计中AI绘图的精细化控图研究
18
作者 张汉栋 张伟 潘帅 《包装工程》 北大核心 2025年第S1期254-259,共6页
深入探讨生成式人工智能(AIGC)技术中的提示词和微调模型,分析不同格式的提示词及其对微调模型控图能力的影响,以解决当前包装设计过程中AI绘图生成结果不稳定及不可控等问题。使用ComfyUI工具开展实验,系统地评估不同类型提示词(包括... 深入探讨生成式人工智能(AIGC)技术中的提示词和微调模型,分析不同格式的提示词及其对微调模型控图能力的影响,以解决当前包装设计过程中AI绘图生成结果不稳定及不可控等问题。使用ComfyUI工具开展实验,系统地评估不同类型提示词(包括结构化和非结构化提示词)与微调模型的应用效果。通过案例对比分析,深入研究其在实际生成过程中的表现与影响,探讨提示词的解构方式与微调策略之间的协同效应。结构化提示词与微调模型的有效结合能够显著提升AI绘图的控图能力,不仅改善绘图结果的准确性和一致性,还能提高整体绘图效率,降低生成过程中的随机性和不确定性。通过系统的实验与分析,为不同结构的提示词和微调模型在AI绘图中的控图能力提供了实证支持,为未来的模型训练和提示词工程的发展奠定了理论基础和实践参考。 展开更多
关键词 生成式人工智能(AIGC) 提示词工程 精细化控图 微调模型 智能包装设计
在线阅读 下载PDF
基于深度迁移学习的小样本茶叶嫩芽识别
19
作者 朱绍辉 赵文举 +2 位作者 马博慧 杨化林 邓芳 《茶叶科学》 北大核心 2025年第3期522-534,共13页
为减少重复构建不同季节、不同地区茶叶嫩芽数据样本的时间成本,提高利用深度学习模型识别不同茶叶嫩芽的精度和泛化性,提出了一种基于深度迁移学习的小样本茶叶嫩芽识别模型QY-Yolov7-Tea。通过将迁移学习技术引入深度学习,构建源域嫩... 为减少重复构建不同季节、不同地区茶叶嫩芽数据样本的时间成本,提高利用深度学习模型识别不同茶叶嫩芽的精度和泛化性,提出了一种基于深度迁移学习的小样本茶叶嫩芽识别模型QY-Yolov7-Tea。通过将迁移学习技术引入深度学习,构建源域嫩芽Yolov7检测模型获取预训练权重,针对Yolov7模型的骨架、颈部、检测头部分进行微调、冻结,并依据预训练权重针对不同目标样本进行试验验证,最终形成嫩芽迁移模型。结果表明,与传统Yolov7嫩芽检测模型相比,深度迁移学习模型在对不同季节和不同地区茶叶嫩芽识别任务中平均精度均值分别提升了8.8个百分点和15.4个百分点,显著改善了模型的鲁棒性和识别能力,有效应对了训练样本不足的问题。 展开更多
关键词 茶叶嫩芽 深度学习 迁移学习 模型微调
在线阅读 下载PDF
Pipe-RLHF:计算模式感知的RLHF并行加速框架
20
作者 徐颖 王梦迪 +4 位作者 程龙 刘炼 赵世新 张磊 王颖 《计算机研究与发展》 北大核心 2025年第6期1513-1529,共17页
基于人类反馈的强化学习(reinforcement learning with human feedback,RLHF)作为当前大语言模型(large language models,LLMs)对齐的主流方法,其核心优化算法——近端策略优化(proximal policy optimization,PPO)却面临着显著的效率问... 基于人类反馈的强化学习(reinforcement learning with human feedback,RLHF)作为当前大语言模型(large language models,LLMs)对齐的主流方法,其核心优化算法——近端策略优化(proximal policy optimization,PPO)却面临着显著的效率问题.PPO由生成、推理、训练3个相互关联的阶段组成,各个阶段有着不同的计算特性.然而,现有的RLHF并行框架采用相同并行策略顺序执行PPO的所有阶段,这导致以下2个问题:其一,生成阶段不能充分利用计算资源,进而影响整体效率;其二,阶段间严格串行执行,未能充分利用潜在并行性.针对上述问题,提出了一个新型RLHF并行框架——Pipe-RLHF.该框架能够自适应地根据各阶段的计算特征确定最优并行策略,突破现有阶段串行范式,采用异步PPO算法发掘阶段间的并行性.具体而言,创新性地提出了适用于PPO生成阶段的延迟批间流水线并行方法,显著提升了该阶段的计算资源利用率;再次,使用异步PPO解放阶段间的依赖关系,将阶段间并行应用到PPO的加速上;最后,针对PPO算法的整体优化,构建了分层并行策略空间,并提出了一套优化算法以实现该空间中的最优解搜索.通过在多个大语言模型上的性能评估实验表明,相较于现有方法,Pipe-RLHF最高可实现3.7倍的加速比,充分验证了该框架的有效性和优越性. 展开更多
关键词 基于人类反馈的强化学习 近端策略优化 模型微调 分布式系统 并行计算
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部