[目的/意义]科技文献复杂知识对象对科技文献中的深度知识内容进行细粒度、全面的知识表示,可有效支撑数智驱动的科学发现与知识发现,是重要的科技创新要素。[方法/过程]首先,通过轻量级本体构建、BRAT知识标注和Neo4j知识存储等步骤实...[目的/意义]科技文献复杂知识对象对科技文献中的深度知识内容进行细粒度、全面的知识表示,可有效支撑数智驱动的科学发现与知识发现,是重要的科技创新要素。[方法/过程]首先,通过轻量级本体构建、BRAT知识标注和Neo4j知识存储等步骤实现领域知识图谱构建,其次,本地化部署大语言模型ChatGLM2-6B并通过低秩适应(Low-Rank Adaptation,LoRA)技术微调模型,最后基于思维记忆(Memory of Thoughts,MOT)机制将知识图谱中的复杂知识注入提示中,通过与大语言模型的多轮问答从科技文献中抽取出复杂知识对象。[结果/结论]以有机太阳能电池(Organic Solar Cells,OSC)为例验证方法的有效性,结果表明融合知识图谱与大语言模型的抽取方法优于大语言模型单独支撑的抽取方法,在准确率P、召回率R和F1值3个指标上分别提升14.1%、10.3%和12.3%。知识图谱能够增强大语言模型对科技文献的复杂知识对象抽取能力,提升OSC领域的科技文献挖掘效率与准确性。展开更多
构建数字孪生水利建设知识图谱挖掘水利建设对象之间的潜在关系能够帮助相关人员优化水利建设设计方案和决策。针对数字孪生水利建设的学科交叉和知识结构复杂的特性,以及通用知识抽取模型缺乏对水利领域知识的学习和知识抽取精度不足...构建数字孪生水利建设知识图谱挖掘水利建设对象之间的潜在关系能够帮助相关人员优化水利建设设计方案和决策。针对数字孪生水利建设的学科交叉和知识结构复杂的特性,以及通用知识抽取模型缺乏对水利领域知识的学习和知识抽取精度不足等问题,为提高知识抽取的精度,提出一种基于大语言模型的数字孪生水利建设知识抽取方法(DTKE-LLM)。该方法通过LangChain部署本地大语言模型(LLM)并集成数字孪生水利领域知识,基于提示学习微调LLM,LLM利用语义理解和生成能力抽取知识,同时,设计异源实体对齐策略优化实体抽取结果。在水利领域语料库上进行对比实验和消融实验,以验证所提方法的有效性。对比实验结果表明,相较于基于深度学习的双向长短期记忆条件随机场(BiLSTM-CRF)命名实体识别模型和通用信息抽取模型UIE(Universal Information Extraction),DTKE-LLM的精确率更优;消融实验结果表明,相较于ChatGLM2-6B(Chat Generative Language Model 2.6 Billion),DTKE-LLM的实体抽取和关系抽取F1值分别提高了5.5和3.2个百分点。可见,该方法在保障知识图谱构建质量的基础上,实现了数字孪生水利建设知识图谱的构建。展开更多
该文提出了一种高效评测中文大语言模型(LLM)指令遵循能力和多轮对话能力的方法,并构建了中文多轮指令遵循基准(Chinese Multiturn Instruction Following Benchmark,CMIF)。该文研究设计了专门针对中文的原子指令数据集,涵盖语言结构...该文提出了一种高效评测中文大语言模型(LLM)指令遵循能力和多轮对话能力的方法,并构建了中文多轮指令遵循基准(Chinese Multiturn Instruction Following Benchmark,CMIF)。该文研究设计了专门针对中文的原子指令数据集,涵盖语言结构、拼音、音调等特性,并结合规则与LLM对多轮问题的合法性进行复查,确保评测结果的准确性。在实验中,选取了包括GPT4o和Qwen2.5-72B-Instruct在内的14个开源及闭源模型进行评估。结果显示,主流模型在单轮对话场景中具有较好的指令遵循能力,但多轮对话表现仍有较大提升空间。其中,单轮指令级准确率最高的Claude-3.5-Sonnet在多轮场景下准确率从73.8%下降至40.0%。此外,这些模型在处理中文原子指令时表现出明显的性能下降,中文任务的综合准确率最高仅为51.0%,显著低于其他四类任务平均79.0%的综合准确率。展开更多
知识检索增强技术通过引入外部知识库有效缓解了大语言模型(large language models,LLM)的幻觉问题与知识滞后性,成为提升领域任务性能的关键范式。本文针对电网设备缺陷等级识别任务中标注样本缺乏、知识利用率低与可解释性不足的问题...知识检索增强技术通过引入外部知识库有效缓解了大语言模型(large language models,LLM)的幻觉问题与知识滞后性,成为提升领域任务性能的关键范式。本文针对电网设备缺陷等级识别任务中标注样本缺乏、知识利用率低与可解释性不足的问题,提出了一种零样本的知识增强的大语言模型协同推理框架。构建了层次化树状知识库,设计语义最相关的二阶段检索算法提升知识获取效率,并创新性地融合大语言模型先验知识与检索知识进行多阶段推理验证。该方法在218例测试数据上取得54.17%的分类准确率,较无知识检索方法提升了14.26%,同时通过思维链提示生成可验证的解释文本。此外,该方法为零样本,不需要标注数据进行训练。实验结果表明,本方法有效发挥了专业领域知识与通用知识的协同作用,为电力设备缺陷自动检测提供了准确与可解释的解决方案。展开更多
文摘[目的/意义]科技文献复杂知识对象对科技文献中的深度知识内容进行细粒度、全面的知识表示,可有效支撑数智驱动的科学发现与知识发现,是重要的科技创新要素。[方法/过程]首先,通过轻量级本体构建、BRAT知识标注和Neo4j知识存储等步骤实现领域知识图谱构建,其次,本地化部署大语言模型ChatGLM2-6B并通过低秩适应(Low-Rank Adaptation,LoRA)技术微调模型,最后基于思维记忆(Memory of Thoughts,MOT)机制将知识图谱中的复杂知识注入提示中,通过与大语言模型的多轮问答从科技文献中抽取出复杂知识对象。[结果/结论]以有机太阳能电池(Organic Solar Cells,OSC)为例验证方法的有效性,结果表明融合知识图谱与大语言模型的抽取方法优于大语言模型单独支撑的抽取方法,在准确率P、召回率R和F1值3个指标上分别提升14.1%、10.3%和12.3%。知识图谱能够增强大语言模型对科技文献的复杂知识对象抽取能力,提升OSC领域的科技文献挖掘效率与准确性。
文摘构建数字孪生水利建设知识图谱挖掘水利建设对象之间的潜在关系能够帮助相关人员优化水利建设设计方案和决策。针对数字孪生水利建设的学科交叉和知识结构复杂的特性,以及通用知识抽取模型缺乏对水利领域知识的学习和知识抽取精度不足等问题,为提高知识抽取的精度,提出一种基于大语言模型的数字孪生水利建设知识抽取方法(DTKE-LLM)。该方法通过LangChain部署本地大语言模型(LLM)并集成数字孪生水利领域知识,基于提示学习微调LLM,LLM利用语义理解和生成能力抽取知识,同时,设计异源实体对齐策略优化实体抽取结果。在水利领域语料库上进行对比实验和消融实验,以验证所提方法的有效性。对比实验结果表明,相较于基于深度学习的双向长短期记忆条件随机场(BiLSTM-CRF)命名实体识别模型和通用信息抽取模型UIE(Universal Information Extraction),DTKE-LLM的精确率更优;消融实验结果表明,相较于ChatGLM2-6B(Chat Generative Language Model 2.6 Billion),DTKE-LLM的实体抽取和关系抽取F1值分别提高了5.5和3.2个百分点。可见,该方法在保障知识图谱构建质量的基础上,实现了数字孪生水利建设知识图谱的构建。
文摘该文提出了一种高效评测中文大语言模型(LLM)指令遵循能力和多轮对话能力的方法,并构建了中文多轮指令遵循基准(Chinese Multiturn Instruction Following Benchmark,CMIF)。该文研究设计了专门针对中文的原子指令数据集,涵盖语言结构、拼音、音调等特性,并结合规则与LLM对多轮问题的合法性进行复查,确保评测结果的准确性。在实验中,选取了包括GPT4o和Qwen2.5-72B-Instruct在内的14个开源及闭源模型进行评估。结果显示,主流模型在单轮对话场景中具有较好的指令遵循能力,但多轮对话表现仍有较大提升空间。其中,单轮指令级准确率最高的Claude-3.5-Sonnet在多轮场景下准确率从73.8%下降至40.0%。此外,这些模型在处理中文原子指令时表现出明显的性能下降,中文任务的综合准确率最高仅为51.0%,显著低于其他四类任务平均79.0%的综合准确率。
文摘知识检索增强技术通过引入外部知识库有效缓解了大语言模型(large language models,LLM)的幻觉问题与知识滞后性,成为提升领域任务性能的关键范式。本文针对电网设备缺陷等级识别任务中标注样本缺乏、知识利用率低与可解释性不足的问题,提出了一种零样本的知识增强的大语言模型协同推理框架。构建了层次化树状知识库,设计语义最相关的二阶段检索算法提升知识获取效率,并创新性地融合大语言模型先验知识与检索知识进行多阶段推理验证。该方法在218例测试数据上取得54.17%的分类准确率,较无知识检索方法提升了14.26%,同时通过思维链提示生成可验证的解释文本。此外,该方法为零样本,不需要标注数据进行训练。实验结果表明,本方法有效发挥了专业领域知识与通用知识的协同作用,为电力设备缺陷自动检测提供了准确与可解释的解决方案。