期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Lora微调的轻量化中医药古籍大语言模型研究
1
作者
柴景贤
郎许锋
+5 位作者
李红岩
周作建
凌云
战丽彬
胡孔法
乔学斌
《世界科学技术-中医药现代化》
北大核心
2025年第3期823-831,共9页
目的 针对中医古籍大语言模型构建难度大、微调成本高的问题,研究轻量化中医药古籍大语言模型微调方法,实现以历代《伤寒论》为核心的中医古籍知识问答模型。方法 数据集构造,设计提示词引导GPT-4生成《伤寒论》知识问答对,并融合ShenNo...
目的 针对中医古籍大语言模型构建难度大、微调成本高的问题,研究轻量化中医药古籍大语言模型微调方法,实现以历代《伤寒论》为核心的中医古籍知识问答模型。方法 数据集构造,设计提示词引导GPT-4生成《伤寒论》知识问答对,并融合ShenNong_TCM_Dataset与cMedQA2数据集;模型选择,选用5个通用大模型进行Lora微调,经评估选取最佳模型并验证多版本量化效果。结果 微调后的Qwen-7BChat的BLEU、ROUGE-1、ROUGE-2与ROUGE-L指标相较于基座模型分别提升了17.61、19.63、14.3与21.4。结论 本文所选模型能够有效理解和使用《伤寒论》等中医古籍专业术语和概念,针对用户问题给出准确答案,且相较于同类模型微调成本与算力要求更低,有助于中医药知识传播与智能化发展。
展开更多
关键词
大语言模型
中医药古籍知识
《伤寒论》
Lora微调
模型轻量化
在线阅读
下载PDF
职称材料
题名
基于Lora微调的轻量化中医药古籍大语言模型研究
1
作者
柴景贤
郎许锋
李红岩
周作建
凌云
战丽彬
胡孔法
乔学斌
机构
南京中医药大学人工智能与信息技术学院
江苏省智慧中医药健康服务工程研究中心
南京中医药大学中医学院
辽宁中医药大学中医药创新工程技术中心
南京中医药大学养老服务与管理学院
出处
《世界科学技术-中医药现代化》
北大核心
2025年第3期823-831,共9页
基金
国家自然科学基金委员会面上项目(82074580):基于知识图谱的现代名老中医诊治肺癌用药规律及其机制研究,负责人:胡孔法
江苏省中医药科技发展计划项目合同(MS2023010):面向《伤寒论》的中医药大语言模型构建研究及应用,负责人:周作建。
文摘
目的 针对中医古籍大语言模型构建难度大、微调成本高的问题,研究轻量化中医药古籍大语言模型微调方法,实现以历代《伤寒论》为核心的中医古籍知识问答模型。方法 数据集构造,设计提示词引导GPT-4生成《伤寒论》知识问答对,并融合ShenNong_TCM_Dataset与cMedQA2数据集;模型选择,选用5个通用大模型进行Lora微调,经评估选取最佳模型并验证多版本量化效果。结果 微调后的Qwen-7BChat的BLEU、ROUGE-1、ROUGE-2与ROUGE-L指标相较于基座模型分别提升了17.61、19.63、14.3与21.4。结论 本文所选模型能够有效理解和使用《伤寒论》等中医古籍专业术语和概念,针对用户问题给出准确答案,且相较于同类模型微调成本与算力要求更低,有助于中医药知识传播与智能化发展。
关键词
大语言模型
中医药古籍知识
《伤寒论》
Lora微调
模型轻量化
Keywords
Large language models
Traditional Chinese Medicine ancient texts
Shang Han Lun
Low-rank adaptation
Model optimization
分类号
R-058 [医药卫生]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于Lora微调的轻量化中医药古籍大语言模型研究
柴景贤
郎许锋
李红岩
周作建
凌云
战丽彬
胡孔法
乔学斌
《世界科学技术-中医药现代化》
北大核心
2025
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部