期刊文献+
共找到851篇文章
< 1 2 43 >
每页显示 20 50 100
从“负能”到“赋能”:基于LLMs的思维链提示设计与教研AI智能体构建——以课堂教学智能分析为例 被引量:10
1
作者 王冬青 陈自力 +3 位作者 邵文豪 张粤芳 李赞坚 任光杰 《中国电化教育》 北大核心 2025年第3期111-117,125,共8页
课堂教学智能分析是人工智能技术赋能循证教研的新趋势,通常以报告的形式呈现给一线教师,但其往往包含巨大认知负荷且数据呈现复杂,使得一线教师难以把握问题关键点并用于教学改进,以数据“赋能”为出发点,却反而给教师带去了数据“负... 课堂教学智能分析是人工智能技术赋能循证教研的新趋势,通常以报告的形式呈现给一线教师,但其往往包含巨大认知负荷且数据呈现复杂,使得一线教师难以把握问题关键点并用于教学改进,以数据“赋能”为出发点,却反而给教师带去了数据“负能”。该文基于思维链提示逻辑,提出了教研AI智能体赋能课堂教学分析报告解读的构建框架,实现从数据解析到反馈生成的循环,并以此为导向模块化构建了基于开源大语言模型(LLMs)的智能体框架,个性化开发教研AI智能体。通过63份真实报告数据,验证了“基于思维链提示的回复”相较于“基于LLM的普通回复”的有效性,结果表明前者在多项评价维度上均表现出更高的评分,尤其是在准确性、逻辑性和专业性方面具有显著提升。该文通过聚焦智能体在教研中的垂直应用,探索从数据负能到赋能转变的新路径。 展开更多
关键词 大语言模型 智能体 思维链提示 课堂教学智能分析 循证教研
在线阅读 下载PDF
LLM生成计算图的深度学习模型编译器缺陷检测
2
作者 潘丽敏 赵智洋 +2 位作者 邵思源 罗森林 张浩然 《北京理工大学学报》 北大核心 2025年第11期1204-1212,共9页
深度学习模型编译器缺陷容易引发模型推理崩溃,严重影响模型的可用性和安全性,目前缺陷检测代码行覆盖严重不足、缺陷类型有限.现有方法以局部算子为约束进行检测,多算子交互引发的缺陷触发困难;语义保持的变异策略限制了计算图节点算... 深度学习模型编译器缺陷容易引发模型推理崩溃,严重影响模型的可用性和安全性,目前缺陷检测代码行覆盖严重不足、缺陷类型有限.现有方法以局部算子为约束进行检测,多算子交互引发的缺陷触发困难;语义保持的变异策略限制了计算图节点算子的类型造成检测的代码行覆盖不足,较大影响了检出缺陷的数量.本文提出多轮提示LLM构造测试用例的缺陷检测方法,创建提示词引导LLM生成计算图,再掩码掉常用算子替换为非常用算子,多次迭代更新计算图生成多样化测试用例.在多种深度学习模型编译器上的实测结果表明,方法大幅提升了代码行测试覆盖率和检出缺陷数量,可靠性高,实用价值大. 展开更多
关键词 模糊测试 深度学习模型编译器 缺陷检测 大语言模型
在线阅读 下载PDF
企业科技领军人才的多重构型及成才路径:基于大语言模型(LLMs)的质性分析
3
作者 赵晨 林晨 +2 位作者 王宏飞 杜鹏 李建新 《中国软科学》 北大核心 2025年第2期130-139,共10页
基于生涯资本理论,采用大语言模型及K-prototypes聚类分析118名企业科技领军人才。析出实践开拓型、组织发展型、价值引领型、科创新锐型4类人才构型,揭示其“外部环境熏陶、内隐特质激活、外部能力涌现”的内外交错式成长逻辑,廓清各... 基于生涯资本理论,采用大语言模型及K-prototypes聚类分析118名企业科技领军人才。析出实践开拓型、组织发展型、价值引领型、科创新锐型4类人才构型,揭示其“外部环境熏陶、内隐特质激活、外部能力涌现”的内外交错式成长逻辑,廓清各构型差异及多元化发展路径,明确家国情怀的目标导向与科研品质的能力支撑是各构型成才的共性因素。 展开更多
关键词 科技领军人 人才画像 大语言模型 成长路径
在线阅读 下载PDF
基于LLM与可视化的图数据库专利知识图谱构建及分析
4
作者 周贞云 黄昭昭 邱均平 《情报杂志》 北大核心 2025年第10期155-162,154,共9页
[研究目的]针对传统专利知识图谱(PKG)构建方法效率低的问题,本研究提出基于大语言模型(LLM)的专利知识图谱构建方法,旨在实现图数据库领域专利信息的智能化处理,进而实现基于知识图谱的专利信息分析。[研究方法]以图数据库专利为样本,... [研究目的]针对传统专利知识图谱(PKG)构建方法效率低的问题,本研究提出基于大语言模型(LLM)的专利知识图谱构建方法,旨在实现图数据库领域专利信息的智能化处理,进而实现基于知识图谱的专利信息分析。[研究方法]以图数据库专利为样本,设计LLM提示词抽取知识以构建PKG。借助Neo4j可视化,多维度梳理技术演化路径,运用TextRank、PageRank算法分析应用领域关键词与节点影响力。[研究结果/结论]研究表明,通过LLM能够实现自动化构建知识图谱;图数据库技术历经基础架构优化、分布式扩展到AI融合三阶段发展;应用领域以知识图谱、数据处理和模型为核心,其中知识图谱节点影响力最强。 展开更多
关键词 大语言模型 图数据库 专利信息 知识图谱 知识抽取 可视化
在线阅读 下载PDF
基于多主体仿真模型与LLMs的林火航空应急救援任务分配决策
5
作者 沈洋 陈襄 +1 位作者 汪娴冰 韩佳琪 《指挥与控制学报》 北大核心 2025年第2期225-238,共14页
在林火应急救援操作中,有效的航空资源调度对于提高救援效率至关重要。提出一种创新方法,将大语言模型与多主体仿真模型相结合,以增强应急决策能力。构建一个全面且可扩展的多主体仿真框架,能够模拟多种火灾情景和救援行动,为决策的智... 在林火应急救援操作中,有效的航空资源调度对于提高救援效率至关重要。提出一种创新方法,将大语言模型与多主体仿真模型相结合,以增强应急决策能力。构建一个全面且可扩展的多主体仿真框架,能够模拟多种火灾情景和救援行动,为决策的智能化验证和迭代提供了实验基础。将大语言模型集成到仿真模型中,通过自然语言处理技术实现了任务分配方案的进一步优化。为提高大语言模型辅助决策的质量和稳定性,还引入检索增强生成技术框架。相关仿真实验结果表明,大语言模型在应急救援决策中可发挥出关键性的辅助作用,显著提升决策效率和准确性。 展开更多
关键词 航空应急救援 多主体仿真 大语言模型 决策智能 林火蔓延 检索增强生成
在线阅读 下载PDF
SWARM-LLM:基于大语言模型的无人集群任务规划系统 被引量:1
6
作者 李婷婷 王琪 +1 位作者 王嘉康 徐勇军 《计算机科学》 北大核心 2025年第1期72-79,共8页
针对无人集群系统自主智能性不足、异构无人集群协同效率低、任务分配不均衡等问题,文中面向无人集群自主规划、高效协作、智能决策的需求,首先提出了一种新的基于大语言模型的无人集群任务规划系统框架(SWARM-LLM)。该框架利用大语言... 针对无人集群系统自主智能性不足、异构无人集群协同效率低、任务分配不均衡等问题,文中面向无人集群自主规划、高效协作、智能决策的需求,首先提出了一种新的基于大语言模型的无人集群任务规划系统框架(SWARM-LLM)。该框架利用大语言模型将高层次的任务指令转化为具体的智能无人集群任务规划方案,通过任务分解、任务分配、任务执行等多个阶段来实现无人集群协同任务。进一步地,设计了一套适用于无人集群规划的提示工程方法-规划链(Planning Chain, PC),用来指导和优化上述各阶段的实施。最终,在无人集群仿真环境(AirSim)中构建了不同类别和复杂度的任务,并进行了评估实验。与其他基于优化算法和机器学习的算法相比,实验结果证明了SWARM-LLM框架的有效性,并在任务成功率上展现出了显著的优势,平均性能提升了47.8%。 展开更多
关键词 任务规划 无人集群 大语言模型 协同策略 智能决策
在线阅读 下载PDF
TDD OTFS低轨卫星通信系统的LLM信道预测方法
7
作者 游雨欣 姜兴龙 +1 位作者 刘会杰 梁广 《电子与信息学报》 北大核心 2025年第8期2535-2548,共14页
正交时频空间(OTFS)调制技术在低轨卫星与地面通信场景下具有良好的应用前景。然而,LEO高多普勒频移变化率和高延迟会导致信道老化问题,实时的信道估计不仅增大了星载接收机计算复杂度,而且大量的信令开销降低了传输效率。本文针对Ka频... 正交时频空间(OTFS)调制技术在低轨卫星与地面通信场景下具有良好的应用前景。然而,LEO高多普勒频移变化率和高延迟会导致信道老化问题,实时的信道估计不仅增大了星载接收机计算复杂度,而且大量的信令开销降低了传输效率。本文针对Ka频段MISO-OTFS星地通信系统,设计了一种基于上行信道估计的下行信道预测方案,提出了一种基于数据辅助匹配滤波的高精度信道估计方法提取上行信道状态信息,构建了一种基于大语言模型的信道预测网络(ASLLM)预测下行信道状态信息。仿真结果将所提出的方法与其他现有方法对比,证明其在可接受计算复杂度内具有更优的NMSE和BER预测性能以及多场景泛化能力。 展开更多
关键词 正交时频空间 低地球轨道卫星 信道预测 大语言模型
在线阅读 下载PDF
基于大语言模型的CIL-LLM类别增量学习框架
8
作者 王晓宇 李欣 +1 位作者 胡勉宁 薛迪 《计算机科学与探索》 北大核心 2025年第2期374-384,共11页
在文本分类领域,为了提升类别增量学习模型的分类准确率并避免灾难性遗忘问题,提出了一种基于大语言模型(LLM)的类别增量学习框架(CIL-LLM)。CIL-LLM框架通过抽样和压缩环节选取具有代表性的样本,利用较强语言理解能力的LLM基于上下文... 在文本分类领域,为了提升类别增量学习模型的分类准确率并避免灾难性遗忘问题,提出了一种基于大语言模型(LLM)的类别增量学习框架(CIL-LLM)。CIL-LLM框架通过抽样和压缩环节选取具有代表性的样本,利用较强语言理解能力的LLM基于上下文学习提炼关键技能,以这些技能作为分类的依据,从而降低了存储成本;采用关键词匹配环节选取最优技能,以此构建提示词,引导下游弱LLM进行分类,提高了分类的准确性;根据基于知识蒸馏的技能融合环节,不仅实现了技能库的有效拓展和更新,还兼顾了新旧类别特性的学习。对比实验结果表明,在THUCNews数据集上的测试中,与现有的L-SCL方法相比,CIL-LLM框架在所有任务上的平均准确率提升了6.3个百分点,性能下降率降低了3.1个百分点。此外,在消融实验中,经由CIL-LLM框架增强的SLEICL模型相比于原有模型,所有任务的平均准确率提高了10.4个百分点,性能下降率降低了3.3个百分点。消融实验进一步验证了提出的样本压缩、关键词匹配和技能融合环节均对模型的准确率和性能下降率产生了优化效果。 展开更多
关键词 类别增量学习 大语言模型(llm) 主题分类 知识蒸馏
在线阅读 下载PDF
LLM赋能的Datalog代码翻译技术及增量程序分析框架
9
作者 王熙灶 沈天琪 +1 位作者 宾向荣 卜磊 《软件学报》 北大核心 2025年第6期2515-2534,共20页
Datalog是一种声明式逻辑编程语言,在不同领域得到了广泛应用.近年来,学术界和工业界对Datalog的兴趣高涨,设计并开发了多种Datalog引擎和相应方言.然而,多方言带来的一个问题是以一种Datalog方言实现的代码,一般而言不能在另一种方言... Datalog是一种声明式逻辑编程语言,在不同领域得到了广泛应用.近年来,学术界和工业界对Datalog的兴趣高涨,设计并开发了多种Datalog引擎和相应方言.然而,多方言带来的一个问题是以一种Datalog方言实现的代码,一般而言不能在另一种方言的引擎上执行.因此,当采用新Datalog引擎时,需要将现有Datalog代码翻译到新方言上.目前的Datalog代码翻译技术可分为人工重写代码和人工设计翻译规则两类,存在耗时长、大量重复劳动、缺乏灵活性和可拓展性等问题.提出了一种大语言模型(LLM)赋能的Datalog代码翻译技术,利用LLM强大的代码理解和生成能力,通过分治翻译策略、基于少样本提示和思维链提示的提示工程、基于检查-反馈-修复的迭代纠错机制,可以在不同Datalog方言之间实现高精度代码翻译,减轻开发人员重复开发翻译规则的工作量.基于此代码翻译技术,设计并实现了一种通用的基于Datalog的声明式增量程序分析框架.在不同Datalog方言对上评估了所提出的LLM赋能的Datalog代码翻译技术的性能,评估结果验证了所提代码翻译技术的有效性.对通用声明式增量程序分析框架进行了实验评估,验证了基于所提代码翻译技术的增量程序分析的加速效果. 展开更多
关键词 DATALOG 代码翻译 大语言模型 程序分析 增量分析框架
在线阅读 下载PDF
人工经验+LLMs智能:基于支持策略规划的心理健康支持生成框架
10
作者 陈启 刘德喜 +3 位作者 张丽园 万齐智 刘喜平 赵芸 《中文信息学报》 北大核心 2025年第1期153-166,共14页
心理健康支持旨在帮助求助者应对心理健康问题。使用大语言模型(Large Language Models,LLMs)生成心理健康支持回复,有助于减轻心理咨询师的负担,提高心理健康支持的效率。尽管近期关于思维链(Chain-of-Thought,CoT)Prompting的研究旨... 心理健康支持旨在帮助求助者应对心理健康问题。使用大语言模型(Large Language Models,LLMs)生成心理健康支持回复,有助于减轻心理咨询师的负担,提高心理健康支持的效率。尽管近期关于思维链(Chain-of-Thought,CoT)Prompting的研究旨在指导LLMs自动规划活动,取得了一定的成功,但这些研究没有对以往的经验进行提炼,导致LLMs生成的内容缺乏针对性和共情性,在心理健康支持场景下,这一问题尤为突出。为解决这个问题,该文定义了一种基于支持策略规划的心理健康支持生成框架S2P-MSG。该框架利用小语言模型(Small Language Models,SLMs)学习心理咨询师回复中支持策略规划的“人工经验”,生成多条动态策略链;使用Prompting方法引导LLMs选择最恰当的动态策略链,激发LLMs“智能”;并基于选中的动态策略链引导LLMs生成心理健康支持回复。该文在广泛使用的PsyQA数据集上进行了丰富的实验。实验结果表明,与SLMs模型及常见的Prompting方法相比,S2P-MSG框架生成的回复具有更高的相关性、帮助性和共情性。实验还发现,在应对心理健康风险水平较高和自我披露程度较高的求助帖时,S2P-MSG框架展现出了更为优异的性能。 展开更多
关键词 大语言模型 心理健康支持 支持策略
在线阅读 下载PDF
GAI使能网络智能化:基于LLM的网络操作系统
11
作者 霍如 沙宗轩 +4 位作者 吕科呈 陈伟 汪硕 黄韬 F.Richard Yu 《通信学报》 北大核心 2025年第6期32-44,共13页
为了实现对网络高智能化可管可控的目标,提出了基于大语言模型(LLM)的高可控大网级网络操作系统。通过网络态势感知和微调大模型的意图理解优化资源配置,实现智能化运维。同时,设计了面向中国网络操作系统(CNOS)的网络大模型微调和推理... 为了实现对网络高智能化可管可控的目标,提出了基于大语言模型(LLM)的高可控大网级网络操作系统。通过网络态势感知和微调大模型的意图理解优化资源配置,实现智能化运维。同时,设计了面向中国网络操作系统(CNOS)的网络大模型微调和推理流程,可识别CNOS指令并对系统反馈结果进行归纳总结,周期性的自主训练及模型迭代更新。实验结果表明,所提系统能够快速识别并准确转换用户指令,有效降低操作系统管理任务时间,实现网络资源的智能化调度和配置,提升网络操作系统的可控性和人机交互的友好程度。 展开更多
关键词 网络大模型 网络操作系统 大语言模型 流量调度 智能运维
在线阅读 下载PDF
工匠精神与大国工匠成长路径:基于大语言模型(LLMs)的质性研究
12
作者 林晨 赵晨 徐燕 《科学管理研究》 北大核心 2025年第3期132-143,共12页
大国工匠是支撑现代化产业体系建设的重要人才力量,有必要就大国工匠的内隐特质和外显特征展开刻画,形成对其人才画像及成长路径的全面理解。基于大语言模型(LLMs)历遍大国工匠的文本资料,提炼其工作价值观体系,采用K-prototypes聚类算... 大国工匠是支撑现代化产业体系建设的重要人才力量,有必要就大国工匠的内隐特质和外显特征展开刻画,形成对其人才画像及成长路径的全面理解。基于大语言模型(LLMs)历遍大国工匠的文本资料,提炼其工作价值观体系,采用K-prototypes聚类算法析出人才画像构型;接着采用大语言模型和人工相结合的质性编码,梳理各构型大国工匠的成才路径。识别出奋进青年、巾帼栋梁、领军名匠、使命匠人、精益俊才、泰斗传人六类人才画像构型,总结出以“环境熏陶-价值涌现-能力涌现-杰出贡献”为过程的成才路径,且不同构型存在“殊途同归”的多重成长路径。结论有助于大国工匠人才的识别和培养,同时拓宽了大语言模型在社科研究中的应用。 展开更多
关键词 大国工匠 人才画像 大语言模型 文本分析
在线阅读 下载PDF
基于LLM的多媒体原生库模糊测试研究
13
作者 解梦飞 傅建明 姚人懿 《信息网络安全》 北大核心 2025年第3期403-414,共12页
多媒体原生库通过C/C++语言直接操作底层系统资源,在显著提升音视频数据处理效率的同时,也引入了持久的内存安全威胁。然而,现有的原生库模糊测试研究不仅缺乏对多媒体库的针对性,还难以实现对闭源二进制程序的运行时监控机制。文章提... 多媒体原生库通过C/C++语言直接操作底层系统资源,在显著提升音视频数据处理效率的同时,也引入了持久的内存安全威胁。然而,现有的原生库模糊测试研究不仅缺乏对多媒体库的针对性,还难以实现对闭源二进制程序的运行时监控机制。文章提出一种基于LLM的多媒体原生库模糊测试方案MediaFuzzer,通过自启发式的LLM问询方案,MediaFuzzer能够准确提取蕴含在函数签名中的功能语义信息,并进一步筛选出潜在的多媒体原生库函数作为执行入口。随后,MediaFuzzer设计并实现了基于模拟执行的模糊测试框架,能够在系统依赖、内存管控和代码执行3个层次构建完整的运行时监控机制,从而实现覆盖率导向的输入变异以及主动捕获内存异常行为。实验结果表明,MediaFuzzer从500个移动应用中识别出7类共1557个多媒体函数,成功挖掘到WhatsApp中的1个已公开漏洞以及包括微信在内的3个零日漏洞。 展开更多
关键词 多媒体原生库 模糊测试 内存安全 大语言模型
在线阅读 下载PDF
LLMs监督的因果威胁评估模型
14
作者 王紫东 贺楚超 +2 位作者 高晓光 闫栩辰 张青富 《指挥与控制学报》 北大核心 2025年第2期191-201,共11页
为解决因果可解释的前提下构建兼容数据分布与专家知识的威胁评估网络的问题,提出LLMs监督的因果威胁评估模型L-CTA。使用LLMs模拟传统建模中的专家角色,融合提示词对威胁要素与决策变量构造因果图,基于仿真数据进行参数学习,并通过k折... 为解决因果可解释的前提下构建兼容数据分布与专家知识的威胁评估网络的问题,提出LLMs监督的因果威胁评估模型L-CTA。使用LLMs模拟传统建模中的专家角色,融合提示词对威胁要素与决策变量构造因果图,基于仿真数据进行参数学习,并通过k折交叉检验以验证集上的推理精度作为该因果图的适应度;引入合理的进化算子,迭代搜索寻找更优的图结构。实验结果表明,L-CTA构建的因果威胁评估网络比专家设计的朴素模型和数据驱动学习的模型在分布外推理任务上精度高出11.2%与28.9%,验证了L-CTA在威胁评估建模中的高效性、鲁棒性以及泛化性。 展开更多
关键词 威胁评估 大语言模型 因果结构 进化算法
在线阅读 下载PDF
基于多轮LLM和犯罪知识图谱的多被告人法律判决预测
15
作者 王东升 《计算机科学》 北大核心 2025年第8期308-316,共9页
一些研究利用先进的大模型(LLM)技术理解法律事实,预测被告人的罪名、刑期等判决结果。为进一步深入研究,选择了更为复杂的多被告人法律判决预测任务,它比单被告人预测更困难。具体地,将与LLM的交互由单轮升级为多轮,以此提高LLM对案件... 一些研究利用先进的大模型(LLM)技术理解法律事实,预测被告人的罪名、刑期等判决结果。为进一步深入研究,选择了更为复杂的多被告人法律判决预测任务,它比单被告人预测更困难。具体地,将与LLM的交互由单轮升级为多轮,以此提高LLM对案件的理解能力。此外,构建了描述案件的两类犯罪知识图谱,其中犯罪关系知识图谱刻画了被告人之间的帮助关系,量刑情节知识图谱展示了案件的核心犯罪情节。通过犯罪知识图谱,设计了一个检索系统为LLM提供类案判决的参考。在多被告法律判决预测实验中,所提方法的预测结果优于对比方法,这表明多轮LLM交互和犯罪知识图谱的设计是有效的。 展开更多
关键词 多被告人 法律判决预测 大语言模型 犯罪知识图谱
在线阅读 下载PDF
基于LLM的日志故障诊断
16
作者 许婷 肖桐 +3 位作者 张圣林 孙一丹 孙永谦 裴丹 《电子学报》 北大核心 2025年第4期1123-1141,共19页
随着软件服务系统日益庞大、复杂,基于日志的故障诊断对保证软件服务的可靠性至关重要.已有的日志故障诊断方法虽然可以确定故障类型,但无法为其推理过程提供解释让运维人员信服,从而导致它们难以在实际生产环境中进行部署.为此,本文提... 随着软件服务系统日益庞大、复杂,基于日志的故障诊断对保证软件服务的可靠性至关重要.已有的日志故障诊断方法虽然可以确定故障类型,但无法为其推理过程提供解释让运维人员信服,从而导致它们难以在实际生产环境中进行部署.为此,本文提出了一种全新的通过自动构建思维链指令提示(log Chain of Thought-Prompting,CoT-Prompting)来进行日志故障诊断的框架——LogCoT(Log Chain of Thought),它利用基于两阶段思维链提示工程(Auto-Few-Shot-CoT,Auto-FSC)算法,通过大语言模型(Large Language Model,LLM)提取日志的语义信息,从而生成可解释的根因分析报告.此外,LogCoT结合无类别标注的指令优化(prompt-tuning)工程和有类别标注的参数微调(preference-tuning)技术优化微调Mistral基座模型.然后通过大模型反馈身份偏好优化(Large-Language Model feedback Identity Preference Optimisation,LLMf-IPO)算法纠正Mistral生成的错误诊断结果,以更好对齐用户意图.最后,本文基于从一家互联网服务提供商和一家云服务提供商的生产环境中收集的两个日志数据集对LogCoT的性能进行了全面综合的实验评估.实验结果表明,LogCoT在Accuracy、Macro-F1、Weighted-F1等三个性能指标上均优于当前典型的基线模型,在两个数据集上比现有最佳模型的Accuracy分别高出31.88个百分点和10.51个百分点. 展开更多
关键词 日志故障诊断 可解释性 大语言模型 提示工程 偏好对齐 思维链
在线阅读 下载PDF
基于RISC-V Matrix指令集扩展的LLM矢量点积加速研究
17
作者 陈煦豪 胡思鹏 +3 位作者 刘洪超 刘伯然 唐丹 赵地 《计算机科学》 北大核心 2025年第5期83-90,共8页
鉴于边缘AI的高性能与低功耗需求,基于RISC-V指令集架构,针对边缘设备数字信号处理的实际问题,设计了一种边缘AI的专用指令集处理器,在有限的硬件开销下,提升了边缘AI的执行效率,降低了边缘AI的能量消耗,能够满足边缘AI应用中进行高效... 鉴于边缘AI的高性能与低功耗需求,基于RISC-V指令集架构,针对边缘设备数字信号处理的实际问题,设计了一种边缘AI的专用指令集处理器,在有限的硬件开销下,提升了边缘AI的执行效率,降低了边缘AI的能量消耗,能够满足边缘AI应用中进行高效大语言模型(LLM)推理计算的需求。针对大语言模型的特性,基于RISC-V指令集扩展了自定义指令完成矢量点积计算,在专用的矢量点积加速硬件上进行大语言模型的运算加速;基于开源高性能RISC-V处理器核“香山”nanhu版本架构,实现了矢量点积专用指令集处理器nanhu-vdot,其在高性能处理器“香山”(nanhu版本)的基础上增加了矢量点积计算单元以及流水线处理逻辑;对nanhu-vdot进行FPGA硬件测试,在几乎没有增加额外的硬件资源和功耗消耗的前提下,矢量点积运算速度相比标量方法提高4倍以上,使用软硬件协同方案进行第二代生成式预训练(Generative Pre-Trained-2,GPT-2)模型推理,相比纯软件实现,速度提高了约30%。 展开更多
关键词 指令集扩展 矢量点积 软硬件协同 大语言模型推理
在线阅读 下载PDF
基于生成式LLM的开源情报分析方法
18
作者 成磊峰 罗吉 +2 位作者 王磊 朱敏 陶思彤 《电讯技术》 北大核心 2025年第10期1545-1550,共6页
针对开源情报分析中网页信息提取问答问题,提出一种融合生成式大语言模型(Large Language Model,LM)、XPath与检索增强生成(Retrieval-Augmented Generation,RAG)的方法,涉及动态模板化提示策略与多粒度语义检索。动态模板基于情报类型... 针对开源情报分析中网页信息提取问答问题,提出一种融合生成式大语言模型(Large Language Model,LM)、XPath与检索增强生成(Retrieval-Augmented Generation,RAG)的方法,涉及动态模板化提示策略与多粒度语义检索。动态模板基于情报类型生成领域知识约束提示,提升实体提取精度;多粒度检索构建文档-段落-实体三级体系,结合BERT-Topk算法优化长文本信息定位。通过OpenKG知识库对齐实体构建属性-关系-事件三维网络,增强复杂事件逻辑分析。该方法在ClueWeb22与TAC-KBP2022数据集上的提取率为0.85,回答准确率为0.78,相比传统RAG,性能提升18%~31%。实际应用中,热点事件简报关键事实准确率达92%,综合成本仅为GPT-4的12%。 展开更多
关键词 开源情报分析 网页信息提取 生成式大语言模型 检索增强生成
在线阅读 下载PDF
改进检索增强与LLM思维链维修策略生成 被引量:1
19
作者 贺梓然 江波 王晓龙 《计算机应用与软件》 北大核心 2025年第3期1-6,83,共7页
针对高级装备维修场景下人工方式成本高、准确度依赖人员素质、无法有效利用历史维修经验等问题,提出一种改进检索增强与大语言模型(Large Language Models,LLM)思维链维修策略生成算法。即首先引入意图识别模块以优化处理路径;其次引... 针对高级装备维修场景下人工方式成本高、准确度依赖人员素质、无法有效利用历史维修经验等问题,提出一种改进检索增强与大语言模型(Large Language Models,LLM)思维链维修策略生成算法。即首先引入意图识别模块以优化处理路径;其次引入分层路由机制,通过关键因素进行多层分类;再次融合多查询检索器以提升检索效果,引入上下文压缩模块以减少冗余信息,避免注意力干扰;最终通过思维链推理方法,引导大语言模型逐步生成精细化维修策略。在高级装备故障诊断与维修决策领域,以典型航空飞行器维修决策作为实验以及应用验证场景,采用提出的高效维修策略生成算法,显著提升了高级装备维修策略生成准确性与时效性。 展开更多
关键词 维修策略生成 大语言模型 改进检索增强生成 思维链推理
在线阅读 下载PDF
KADR-LLM:基于深度检索推理的大语言模型辅助档案开放审核方法
20
作者 曹正阳 金咏诗 +2 位作者 孙俐丽 秦洋 冯李航 《中国测试》 北大核心 2025年第7期9-18,共10页
针对传统档案开放审核模式中存在的效率低下、主观性强及语义分析能力不足等问题,该文提出一种基于KADR-LLM的智能审核框架。该框架通过融合DPR的密集检索能力与KARP的渐进式推理机制,构建“检索-推理-验证”三阶审核范式,显著提升审核... 针对传统档案开放审核模式中存在的效率低下、主观性强及语义分析能力不足等问题,该文提出一种基于KADR-LLM的智能审核框架。该框架通过融合DPR的密集检索能力与KARP的渐进式推理机制,构建“检索-推理-验证”三阶审核范式,显著提升审核的精准性与效率。创新性体现于:设计基于文档空间结构的双通道文本预处理方法,通过段落裁剪优化语义表征;融合敏感词匹配与检索增强生成技术,建立规则驱动的动态推理机制;提出关键词引导的渐进式审核策略,实现从表层特征提取到逻辑链验证的可解释决策。实验结果表明,在OParchives等数据集上,KADR-LLM在零样本与少样本条件下的审核准确率分别达79.98%与82.34%,较基线模型提升4.31%,且具备更高的语义泛化能力。 展开更多
关键词 档案开放审核 大语言模型 密集检索 推理提示
在线阅读 下载PDF
上一页 1 2 43 下一页 到第
使用帮助 返回顶部