期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于领域信息分解式学习的大语言模型修辞认知增强方法
1
作者 王雯 于东 刘鹏远 《中文信息学报》 北大核心 2025年第4期30-41,共12页
中文修辞手法多样且概念差异性大,大语言模型对部分修辞手法的认知存在缺陷。针对该问题,该文提出了QAKAG框架,此框架首先引入信息分解式学习思想,通过问答形式检测大语言模型的修辞认知缺陷,然后以四种不同的知识组合方式探究最优信息... 中文修辞手法多样且概念差异性大,大语言模型对部分修辞手法的认知存在缺陷。针对该问题,该文提出了QAKAG框架,此框架首先引入信息分解式学习思想,通过问答形式检测大语言模型的修辞认知缺陷,然后以四种不同的知识组合方式探究最优信息补充机制,实现了大语言模型修辞认知能力的增强。该文构建了多类别中文修辞句数据集MCRSD和修辞知识库MCRKB,并在ChatGPT4等六个大语言模型上开展实验研究,验证了QAKAG框架对增强大语言模型修辞认知能力的有效性以及其各阶段的必要性。结果表明,在QAKAG框架的增强下,六个大语言模型在多类别修辞识别任务上的性能相较直接回答识别问题的平均F_(1)值提高22.1%,优于Zero-shot-CoT、RAG-BaiKe、Few-Shot5提示策略。 展开更多
关键词 大语言模型 修辞认知 分解式学习 动态信息补充
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部