期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于大型语言模型指令微调的心理健康领域联合信息抽取
被引量:
7
1
作者
蔡子杰
方荟
+2 位作者
刘建华
徐戈
龙云飞
《中文信息学报》
CSCD
北大核心
2024年第8期112-127,共16页
信息抽取目的在于从文本中提取关键的信息。心理健康领域的信息抽取能力反映了语言模型对人类心理健康相关信息的自然语言理解能力。提高语言模型的领域信息抽取能力,还能为AI心理健康服务提供重要的知识来源。但目前心理健康信息抽取...
信息抽取目的在于从文本中提取关键的信息。心理健康领域的信息抽取能力反映了语言模型对人类心理健康相关信息的自然语言理解能力。提高语言模型的领域信息抽取能力,还能为AI心理健康服务提供重要的知识来源。但目前心理健康信息抽取的中文指令数据集十分匮乏,这限制了相关研究和应用的发展。针对以上问题,该文在心理学专家的指导下提示ChatGPT生成样本实例,并通过设计生成指令以及数据增强,构建了5641条包含命名实体识别、关系抽取和事件抽取三项基本抽取任务的心理健康领域联合信息抽取指令数据集,旨在填补心理健康领域信息抽取中文指令数据集的不足。随后使用该指令数据集对大型语言模型进行参数高效微调。与基线模型的性能对比以及人工评估的实验结果表明,大型语言模型经过有效的指令微调后可以完成心理健康领域信息抽取的联合任务。
展开更多
关键词
信息抽取
心理健康
大型语言模型
指令微调
在线阅读
下载PDF
职称材料
基于大模型指令微调的公文生成方法
2
作者
梁瑞威
蔡子杰
+3 位作者
方荟
龙云飞
孔祥增
徐戈
《中文信息学报》
北大核心
2025年第5期164-176,共13页
公文在政府和企业机构中扮演着重要角色,其撰写严格遵循特定的格式和规范,且内容必须准确、清晰、逻辑严谨。然而,传统的公文撰写过程耗时烦琐,需要经验丰富的写作人员才能胜任。目前,公文写作数据集稀缺,且尚无大模型公文生成的研究。...
公文在政府和企业机构中扮演着重要角色,其撰写严格遵循特定的格式和规范,且内容必须准确、清晰、逻辑严谨。然而,传统的公文撰写过程耗时烦琐,需要经验丰富的写作人员才能胜任。目前,公文写作数据集稀缺,且尚无大模型公文生成的研究。因此,该文介绍了一种基于大模型的指令微调方法,旨在提高公文写作质量和效率。具体来说,我们基于少量真实公文样本,结合公文专家的指导,设计了提示模板,引导ChatGPT生成了625对样本实例,并将这些实例构建成面向公文写作任务的指令数据集,解决了当前公文领域缺乏写作任务指令数据集的问题。随后,我们使用这一指令数据集对大模型进行了参数高效微调,并为公文写作评测设计了评估标准。实验结果表明,对四个基座模型进行微调,性能得到显著提升,在百分制人工评估标准下,基座模型Qwen-1.8B-Chat经LoRA微调后平均得分从74.32分提升到84.64分,证明了大模型经过领域数据集指令微调后能有效提高公文写作质量。
展开更多
关键词
公文写作
大模型
指令微调
写作评测
在线阅读
下载PDF
职称材料
题名
基于大型语言模型指令微调的心理健康领域联合信息抽取
被引量:
7
1
作者
蔡子杰
方荟
刘建华
徐戈
龙云飞
机构
福建
理工大学计算机科学与数学学院
福建省
大数据挖掘与应用
技术
重点实验室
闽江学院计算机与大数据学院
福建省心理健康人机交互技术研究中心
埃塞克斯大学计算机与电子工程学院
出处
《中文信息学报》
CSCD
北大核心
2024年第8期112-127,共16页
基金
科技创新2030-“新一代人工智能”重大项目(2022ZD0116308)
福建省自然科学基金(2023J01349)
+2 种基金
福建省创新资金项目(2022C0022)
闽江学院引进人才科技预研项目(MJY23033)
闽江学院引进人才科技预研项目(MJY21032)。
文摘
信息抽取目的在于从文本中提取关键的信息。心理健康领域的信息抽取能力反映了语言模型对人类心理健康相关信息的自然语言理解能力。提高语言模型的领域信息抽取能力,还能为AI心理健康服务提供重要的知识来源。但目前心理健康信息抽取的中文指令数据集十分匮乏,这限制了相关研究和应用的发展。针对以上问题,该文在心理学专家的指导下提示ChatGPT生成样本实例,并通过设计生成指令以及数据增强,构建了5641条包含命名实体识别、关系抽取和事件抽取三项基本抽取任务的心理健康领域联合信息抽取指令数据集,旨在填补心理健康领域信息抽取中文指令数据集的不足。随后使用该指令数据集对大型语言模型进行参数高效微调。与基线模型的性能对比以及人工评估的实验结果表明,大型语言模型经过有效的指令微调后可以完成心理健康领域信息抽取的联合任务。
关键词
信息抽取
心理健康
大型语言模型
指令微调
Keywords
information extraction
mental health
large language model
instruction tuning
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于大模型指令微调的公文生成方法
2
作者
梁瑞威
蔡子杰
方荟
龙云飞
孔祥增
徐戈
机构
福建
农林大学机电工程学院
福建
理工大学计算机科学与数学学院
闽江学院计算机与大数据学院
福建省心理健康人机交互技术研究中心
埃塞克斯大学计算机与电子工程学院
出处
《中文信息学报》
北大核心
2025年第5期164-176,共13页
基金
科技创新2030-“新一代人工智能”重大项目(2022ZD0116308)
闽江学院引进人才科技预研项目(MJY23033)
+2 种基金
闽江学院引进人才科技预研项目(MJY21032)
福州海洋研究院“揭榜挂帅”项目(2024F02)
福建省中青年教师教育科研项目(科技类)(JAT231095)。
文摘
公文在政府和企业机构中扮演着重要角色,其撰写严格遵循特定的格式和规范,且内容必须准确、清晰、逻辑严谨。然而,传统的公文撰写过程耗时烦琐,需要经验丰富的写作人员才能胜任。目前,公文写作数据集稀缺,且尚无大模型公文生成的研究。因此,该文介绍了一种基于大模型的指令微调方法,旨在提高公文写作质量和效率。具体来说,我们基于少量真实公文样本,结合公文专家的指导,设计了提示模板,引导ChatGPT生成了625对样本实例,并将这些实例构建成面向公文写作任务的指令数据集,解决了当前公文领域缺乏写作任务指令数据集的问题。随后,我们使用这一指令数据集对大模型进行了参数高效微调,并为公文写作评测设计了评估标准。实验结果表明,对四个基座模型进行微调,性能得到显著提升,在百分制人工评估标准下,基座模型Qwen-1.8B-Chat经LoRA微调后平均得分从74.32分提升到84.64分,证明了大模型经过领域数据集指令微调后能有效提高公文写作质量。
关键词
公文写作
大模型
指令微调
写作评测
Keywords
official document writing
large language models
instruction tuning
writing evaluation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于大型语言模型指令微调的心理健康领域联合信息抽取
蔡子杰
方荟
刘建华
徐戈
龙云飞
《中文信息学报》
CSCD
北大核心
2024
7
在线阅读
下载PDF
职称材料
2
基于大模型指令微调的公文生成方法
梁瑞威
蔡子杰
方荟
龙云飞
孔祥增
徐戈
《中文信息学报》
北大核心
2025
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部