期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于ChatGLM的水生动物疾病诊断智能对话系统的优化研究 被引量:3
1
作者 尹娴 冯艳红 叶仕根 《现代电子技术》 北大核心 2024年第14期177-181,共5页
水产品作为重要的食物来源之一,在养殖过程中出现的疾病问题严重影响着养殖业的可持续发展。针对水生动物疾病诊断智能对话系统存在复杂的专业性知识和准确性低的问题,提出一种基于ChatGLM模型的改进水生动物疾病诊断相关问题的优化方... 水产品作为重要的食物来源之一,在养殖过程中出现的疾病问题严重影响着养殖业的可持续发展。针对水生动物疾病诊断智能对话系统存在复杂的专业性知识和准确性低的问题,提出一种基于ChatGLM模型的改进水生动物疾病诊断相关问题的优化方法。该方法通过在ChatGLM模型的中间层插入Adapter模块,针对相关的专业问题进行微调,提高了模型的专业性和准确性。同时采用P-tuning方法对输入部分进行高效的参数微调,使得对特定任务的调整更加精确。通过在水生动物疾病诊断对话数据集上的验证得出,该方法的双语评估替补(BLEU)指标从65.3%提升至75.1%,有效地解决了水生动物疾病诊断智能对话系统存在的准确性和专业性问题,为水生动物疾病诊断提供了有价值的辅助决策。 展开更多
关键词 chatglm 水生动物疾病诊断 智能对话系统 Adapter模块 P-tuning方法 BLEU
在线阅读 下载PDF
基于ChatGLM3-6B的煤矿事故知识图谱构建及应用研究 被引量:3
2
作者 江耀森 杨超宇 刘晓蕾 《中国安全生产科学技术》 CAS CSCD 北大核心 2024年第10期12-21,共10页
为推动煤矿领域知识图谱构建及应用向自动化、信息化、智能化方向发展,解决传统方法存在大量标注数据、费时费力、识别效果低等问题,提出基于ChatGLM3-6B的煤矿事故知识图谱的构建方法。通过构建提示模板,使用ChatGLM3-6B模型的上下文... 为推动煤矿领域知识图谱构建及应用向自动化、信息化、智能化方向发展,解决传统方法存在大量标注数据、费时费力、识别效果低等问题,提出基于ChatGLM3-6B的煤矿事故知识图谱的构建方法。通过构建提示模板,使用ChatGLM3-6B模型的上下文学习能力,进行知识抽取以及Neo4j图数据库存储。采用LangChain框架,实现针对煤矿事故知识图谱的智能查询问答。研究结果表明:ChatGLM3-6B在单样本提示和少样本提示学习策略下信息抽取效果都要高于Lattice LSTM,Bert-CRF和RoBERTa-CRF模型,在F 1值上分别达到0.8010,0.8537,其次在知识问答模块,通过煤矿事故问答案例实验测评发现,达到预期应用效果。研究结果不仅可为煤矿安全领域提供1种高效智能的事故知识图谱构建与应用技术,还可为煤矿管理者在事故防控方面的安全决策提供辅助支持。 展开更多
关键词 知识图谱 chatglm3-6B 煤矿事故 智能查询 信息抽取
在线阅读 下载PDF
基于提示学习的生成式文本摘要研究
3
作者 蒲秋梅 叶芬 +2 位作者 李辅德 韦洁瑶 赵丽娜 《东北师大学报(自然科学版)》 北大核心 2025年第1期63-73,共11页
针对现有生成式自动摘要方法常常依赖模型预先设定的规则或训练过程中的数据和方法的限制,未能完全发挥预训练模型对原文语义的学习潜力,导致生成的内容在连贯性和一致性等方面存在一定的不足问题,本文以大语言模型ChatGLM3-6b为基础,借... 针对现有生成式自动摘要方法常常依赖模型预先设定的规则或训练过程中的数据和方法的限制,未能完全发挥预训练模型对原文语义的学习潜力,导致生成的内容在连贯性和一致性等方面存在一定的不足问题,本文以大语言模型ChatGLM3-6b为基础,借助P-Tuning v2微调技术,将大模型的下游任务调整为文本摘要生成任务.这一方法的关键在于向数据集中添加提示信息,并设计了一套人工提示模板,协助模型在微调训练时能够更好地理解并生成摘要.实验结果表明,通过合理设计提示模板,本文模型在公开数据集上的ROUGE-1、ROUGE-2和ROUGE-L比最优的基线模型提升了2%~4%.此外,通过对相同实验数据集上的不同实验指标进行比较分析,发现针对不同长度的文本,采用不同的微调方法更为有效.P-tuning v2微调更适用于处理长文本的摘要生成任务,而LoRA微调则更适用于处理短文本.综上所述,加入提示词后生成的摘要效果明显改善,进一步证实了提示学习在文本摘要生成任务中的有效性和实用性. 展开更多
关键词 提示学习 文本摘要 大语言模型 chatglm
在线阅读 下载PDF
基于大语言模型的肺癌中药处方推荐研究
4
作者 周宗桢 王欣宇 +1 位作者 杨涛 胡孔法 《南京中医药大学学报》 北大核心 2025年第7期980-986,共7页
目的针对中医处方推荐问题,利用中医专家的肺癌临床病案来自动化生成处方,为用药规律研究、中医临床辅助决策提供参考。方法将中药处方推荐任务转化为文本生成任务,利用基于GLM结构的CHATGLM3模型对肺癌病案进行训练,学习中医专家治疗... 目的针对中医处方推荐问题,利用中医专家的肺癌临床病案来自动化生成处方,为用药规律研究、中医临床辅助决策提供参考。方法将中药处方推荐任务转化为文本生成任务,利用基于GLM结构的CHATGLM3模型对肺癌病案进行训练,学习中医专家治疗肺癌的内在经验知识,提升模型处方生成的效果,并与传统的生成式模型进行比较。结果将肺癌病案内的中医知识融入大语言模型中可有效提升模型的处方生成能力,特别是在生成中医专家常用核心药物方面,模型表现出了较高的倾向性,能够提供丰富且有价值的参考信息。肺癌中药处方推荐模型在BLEU、ROUGE、METEOR指标上取得了64.62%、55.78%、47.39%的效果,并且在前5、10、15、20味中药处方中取得67.79%、63.66%、56.76%、51.93%的准确率,优于基线模型。结论肺癌中药处方推荐模型相较于传统生成式模型取得了较好的处方生成效果,表明其可以从病案中学习肺癌诊疗方面的知识,从而生成符合中医治疗原则的中药处方,也为未来辅助临床决策等提供可能的方向。 展开更多
关键词 大语言模型 处方推荐 中医药 文本生成 肺癌 GLM结构 chatglm3模型
在线阅读 下载PDF
面向印刷包装领域的大模型微调技术研究
5
作者 李小超 姜丹 +3 位作者 张寒 肖克晶 闵瑞 曹少中 《印刷与数字媒体技术研究》 北大核心 2025年第5期68-77,共10页
近年来,大语言模型(Large Language Models,LLMs)在自然语言处理各任务中取得了显著进展。然而,通用大模型在特定垂直领域的表现仍存在局限。为提升模型在印刷包装领域中的理解与生成能力,本研究构建了一个专属领域数据集APPD,并基于Cha... 近年来,大语言模型(Large Language Models,LLMs)在自然语言处理各任务中取得了显著进展。然而,通用大模型在特定垂直领域的表现仍存在局限。为提升模型在印刷包装领域中的理解与生成能力,本研究构建了一个专属领域数据集APPD,并基于ChatGLM3-6B模型进行定向微调。该数据集采用Alpaca格式构建,覆盖了包装设计、材料说明、生产流程、设备操作等多个典型应用场景。在该数据集上进行微调实验,模型在印刷包装相关任务上表现出更强的语言理解与任务完成能力。实验结果表明,领域微调能够有效提升模型的实用性与专业性。本研究为大语言模型在传统制造行业的落地应用提供了新思路。 展开更多
关键词 大语言模型 chatglm3-6B 印刷包装 领域微调
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部