期刊文献+
共找到106篇文章
< 1 2 6 >
每页显示 20 50 100
基于大语言模型的CIL-LLM类别增量学习框架
1
作者 王晓宇 李欣 +1 位作者 胡勉宁 薛迪 《计算机科学与探索》 北大核心 2025年第2期374-384,共11页
在文本分类领域,为了提升类别增量学习模型的分类准确率并避免灾难性遗忘问题,提出了一种基于大语言模型(LLM)的类别增量学习框架(CIL-LLM)。CIL-LLM框架通过抽样和压缩环节选取具有代表性的样本,利用较强语言理解能力的LLM基于上下文... 在文本分类领域,为了提升类别增量学习模型的分类准确率并避免灾难性遗忘问题,提出了一种基于大语言模型(LLM)的类别增量学习框架(CIL-LLM)。CIL-LLM框架通过抽样和压缩环节选取具有代表性的样本,利用较强语言理解能力的LLM基于上下文学习提炼关键技能,以这些技能作为分类的依据,从而降低了存储成本;采用关键词匹配环节选取最优技能,以此构建提示词,引导下游弱LLM进行分类,提高了分类的准确性;根据基于知识蒸馏的技能融合环节,不仅实现了技能库的有效拓展和更新,还兼顾了新旧类别特性的学习。对比实验结果表明,在THUCNews数据集上的测试中,与现有的L-SCL方法相比,CIL-LLM框架在所有任务上的平均准确率提升了6.3个百分点,性能下降率降低了3.1个百分点。此外,在消融实验中,经由CIL-LLM框架增强的SLEICL模型相比于原有模型,所有任务的平均准确率提高了10.4个百分点,性能下降率降低了3.3个百分点。消融实验进一步验证了提出的样本压缩、关键词匹配和技能融合环节均对模型的准确率和性能下降率产生了优化效果。 展开更多
关键词 类别增量学习 大语言模型(llm) 主题分类 知识蒸馏
在线阅读 下载PDF
TDD OTFS低轨卫星通信系统的LLM信道预测方法
2
作者 游雨欣 姜兴龙 +1 位作者 刘会杰 梁广 《电子与信息学报》 北大核心 2025年第8期2535-2548,共14页
正交时频空间(OTFS)调制技术在低轨卫星与地面通信场景下具有良好的应用前景。然而,LEO高多普勒频移变化率和高延迟会导致信道老化问题,实时的信道估计不仅增大了星载接收机计算复杂度,而且大量的信令开销降低了传输效率。本文针对Ka频... 正交时频空间(OTFS)调制技术在低轨卫星与地面通信场景下具有良好的应用前景。然而,LEO高多普勒频移变化率和高延迟会导致信道老化问题,实时的信道估计不仅增大了星载接收机计算复杂度,而且大量的信令开销降低了传输效率。本文针对Ka频段MISO-OTFS星地通信系统,设计了一种基于上行信道估计的下行信道预测方案,提出了一种基于数据辅助匹配滤波的高精度信道估计方法提取上行信道状态信息,构建了一种基于大语言模型的信道预测网络(ASLLM)预测下行信道状态信息。仿真结果将所提出的方法与其他现有方法对比,证明其在可接受计算复杂度内具有更优的NMSE和BER预测性能以及多场景泛化能力。 展开更多
关键词 正交时频空间 低地球轨道卫星 信道预测 大语言模型
在线阅读 下载PDF
LLM赋能的Datalog代码翻译技术及增量程序分析框架
3
作者 王熙灶 沈天琪 +1 位作者 宾向荣 卜磊 《软件学报》 北大核心 2025年第6期2515-2534,共20页
Datalog是一种声明式逻辑编程语言,在不同领域得到了广泛应用.近年来,学术界和工业界对Datalog的兴趣高涨,设计并开发了多种Datalog引擎和相应方言.然而,多方言带来的一个问题是以一种Datalog方言实现的代码,一般而言不能在另一种方言... Datalog是一种声明式逻辑编程语言,在不同领域得到了广泛应用.近年来,学术界和工业界对Datalog的兴趣高涨,设计并开发了多种Datalog引擎和相应方言.然而,多方言带来的一个问题是以一种Datalog方言实现的代码,一般而言不能在另一种方言的引擎上执行.因此,当采用新Datalog引擎时,需要将现有Datalog代码翻译到新方言上.目前的Datalog代码翻译技术可分为人工重写代码和人工设计翻译规则两类,存在耗时长、大量重复劳动、缺乏灵活性和可拓展性等问题.提出了一种大语言模型(LLM)赋能的Datalog代码翻译技术,利用LLM强大的代码理解和生成能力,通过分治翻译策略、基于少样本提示和思维链提示的提示工程、基于检查-反馈-修复的迭代纠错机制,可以在不同Datalog方言之间实现高精度代码翻译,减轻开发人员重复开发翻译规则的工作量.基于此代码翻译技术,设计并实现了一种通用的基于Datalog的声明式增量程序分析框架.在不同Datalog方言对上评估了所提出的LLM赋能的Datalog代码翻译技术的性能,评估结果验证了所提代码翻译技术的有效性.对通用声明式增量程序分析框架进行了实验评估,验证了基于所提代码翻译技术的增量程序分析的加速效果. 展开更多
关键词 DATALOG 代码翻译 大语言模型 程序分析 增量分析框架
在线阅读 下载PDF
基于IPEX-LLM的本地轻量化课程教学智能辅助系统 被引量:5
4
作者 张嘉睿 张豈明 +4 位作者 毕枫林 张琰彬 王伟 任而今 张海立 《华东师范大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第5期162-172,共11页
提出并实现了一个本地轻量化课程教学智能辅助系统.该系统利用IPEX-LLM(Intel PyTorch extention for large language model)加速库,在计算资源受限的设备上高效部署并运行经过QLoRA(quantum-logic optimized resource allocation)框架... 提出并实现了一个本地轻量化课程教学智能辅助系统.该系统利用IPEX-LLM(Intel PyTorch extention for large language model)加速库,在计算资源受限的设备上高效部署并运行经过QLoRA(quantum-logic optimized resource allocation)框架微调的大语言模型,并结合增强检索技术,实现了智能问答、智能出题、教学大纲生成、教学演示文档生成等4个主要功能模块的课程灵活定制,在帮助教师提高教学备课和授课的质量与效率、保护数据隐私的同时,支撑学生个性化学习并提供实时反馈.在性能实验中,以集成优化后的Chatglm3-6B模型为例,该系统处理64-token输出任务时仅需4.08 s,验证了其在资源受限环境下快速推理的能力.在实践案例分析中,通过与原生Chatgml-6B和ChatGPT4.0在功能实现上的对比,进一步表明了该系统具备优越的准确性和实用性. 展开更多
关键词 智能辅助 计算资源受限 IPEX-llm 微调 增强检索
在线阅读 下载PDF
大语言模型综述与展望 被引量:9
5
作者 秦小林 古徐 +1 位作者 李弟诚 徐海文 《计算机应用》 北大核心 2025年第3期685-696,共12页
大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参... 大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参数和数据支持,展现出更强的语言理解与生成能力,广泛应用于机器翻译、问答系统、对话生成等众多任务中并表现卓越。现有的综述大多侧重于LLM的理论架构与训练方法,对LLM的产业级应用实践及技术生态演进的系统性探讨仍显不足。因此,在介绍LLM的基础架构、训练技术及发展历程的基础上,分析当前通用的LLM关键技术和以LLM为底座的先进融合技术。通过归纳总结现有研究,进一步阐述LLM在实际应用中面临的挑战,包括数据偏差、模型幻觉和计算资源消耗等问题,并对LLM的持续发展趋势进行展望。 展开更多
关键词 大语言模型 智能体 自然语言处理 检索增强生成 模型幻觉
在线阅读 下载PDF
基于大模型检索增强生成的气象数据库问答模型实现 被引量:2
6
作者 江双五 张嘉玮 +1 位作者 华连生 杨菁林 《计算机工程与应用》 北大核心 2025年第5期113-121,共9页
随着信息检索和知识获取需求的增加,智能问答系统在多个垂直领域得到广泛应用。然而,在气象领域仍缺乏专门的智能问答系统研究,严重限制了气象信息的高效利用和气象系统的服务效率。针对这一需求,提出了一种面向气象数据库的大模型检索... 随着信息检索和知识获取需求的增加,智能问答系统在多个垂直领域得到广泛应用。然而,在气象领域仍缺乏专门的智能问答系统研究,严重限制了气象信息的高效利用和气象系统的服务效率。针对这一需求,提出了一种面向气象数据库的大模型检索智能问答技术实现方案。该方案设计了一种基于关系型数据库(SQL)与文档型数据(NoSQL)的多通道查询路由(multi-channel retrieval router,McRR)方法,为了适配数据库进行大模型查询以及增强大模型对查询表的理解,分别提出指令查询转换方法与数据库表摘要方法DNSUM,提升大模型对数据库的语义理解能力,通过结合问题理解、重排序器和响应生成等关键模块,构建了一个端到端的智能问答模型,可实现多数据源的相关知识检索及答案生成。实验结果显示,该模型可以有效理解用户问题并生成准确的答案,具有良好的检索和响应能力。不仅为气象领域提供了一种智能问答的解决方案,也为气象智能问答技术提供了新的应用实施参考。 展开更多
关键词 数据库查询 数据库问答 大语言模型 检索增强生成 气象问答
在线阅读 下载PDF
大语言模型的偏见挑战:识别、评估与去除 被引量:1
7
作者 徐月梅 叶宇齐 何雪怡 《计算机应用》 北大核心 2025年第3期697-708,共12页
针对大语言模型(LLM)输出内容存在偏见而导致LLM不安全和不可控的问题,从偏见识别、偏见评估和偏见去除3个角度出发深入梳理和分析现有LLM偏见的研究现状、技术与局限。首先,概述LLM的三大关键技术,从中分析LLM不可避免存在内隐偏见(Int... 针对大语言模型(LLM)输出内容存在偏见而导致LLM不安全和不可控的问题,从偏见识别、偏见评估和偏见去除3个角度出发深入梳理和分析现有LLM偏见的研究现状、技术与局限。首先,概述LLM的三大关键技术,从中分析LLM不可避免存在内隐偏见(Intrinsic Bias)的根本原因;其次,总结现有LLM存在的语言偏见、人口偏见和评估偏见三类偏见类型,并分析这些偏见的特点和原因;再次,系统性回顾现有LLM偏见的评估基准,并探讨这些通用型评估基准、特定语言评估基准以及特定任务评估基准的优点及局限;最后,从模型去偏和数据去偏2个角度出发深入分析现有LLM去偏技术,并指出它们的改进方向,同时,分析指出LLM偏见研究的3个方向:偏见的多文化属性评估、轻量级的偏见去除技术以及偏见可解释性的增强。 展开更多
关键词 大语言模型 偏见溯源 偏见识别 偏见评估 偏见去除
在线阅读 下载PDF
基于大语言模型的企业碳排放分析与知识问答系统
8
作者 韩明 曹智轩 +2 位作者 王敬涛 段丽英 王剑宏 《计算机工程与应用》 北大核心 2025年第16期370-382,共13页
随着全球气候变化日益严重,企业碳排放分析成为国际关注的焦点,针对通用大语言模型(large language model,LLM)知识更新滞后,增强生成架构在处理复杂问题时缺乏专业性与准确性,以及大模型生成结果中幻觉率高的问题,通过构建专有知识库,... 随着全球气候变化日益严重,企业碳排放分析成为国际关注的焦点,针对通用大语言模型(large language model,LLM)知识更新滞后,增强生成架构在处理复杂问题时缺乏专业性与准确性,以及大模型生成结果中幻觉率高的问题,通过构建专有知识库,开发了基于大语言模型的企业碳排放分析与知识问答系统。提出了一种多样化索引模块构建方法,构建高质量的知识与法规检索数据集。针对碳排放报告(政策)领域的知识问答任务,提出了自提示检索增强生成架构,集成意图识别、改进的结构化思维链、混合检索技术、高质量提示工程和Text2SQL系统,支持多维度分析企业可持续性报告,为企业碳排放报告(政策)提供了一种高效、精准的知识问答解决方案。通过多层分块机制、文档索引和幻觉识别功能,确保结果的准确性与可验证性,降低了LLM技术在系统中的幻觉率。通过对比实验,所提算法在各模块的协同下在检索增强生成实验中各指标表现优异,对于企业碳排放报告的关键信息抽取和报告评价,尤其是长文本处理具有明显的优势。 展开更多
关键词 大语言模型(llm) 知识问答系统 大模型幻觉 信息检索 提示学习
在线阅读 下载PDF
基于认知诊断与大模型优化遗传算法的自动组卷方法
9
作者 刘凡 崔金凤 +1 位作者 吴铭 沈荣 《实验技术与管理》 北大核心 2025年第4期233-238,共6页
为了提高教师组卷的质量及教学效率,优化教学资源,国内外许多学者对自动组卷技术进行了深入的研究。传统的自动组卷算法并未考虑班级整体认知水平,且组卷效率低,组卷质量参差不齐,影响了对学生学习效果的正确评估。针对以上问题,该文提... 为了提高教师组卷的质量及教学效率,优化教学资源,国内外许多学者对自动组卷技术进行了深入的研究。传统的自动组卷算法并未考虑班级整体认知水平,且组卷效率低,组卷质量参差不齐,影响了对学生学习效果的正确评估。针对以上问题,该文提出了基于认知诊断与大模型优化遗传算法的自动组卷方法。首先借助预训练大模型所具备的强大数据处理和分析能力,提出了利用大语言模型的微调技术和问答机制进行自动组卷,通过实验选择在7B(7 Billion)参数规模的Qwen大模型上使用Q-LoRA微调进行自动组卷,可以高效率地生成试卷。同时,提出基于认知诊断与大模型优化遗传算法的自动组卷方法提升试卷质量,利用Qwen大模型生成的试卷作为初始种群,并且设计组卷适应度计算方法,采用“精英保留”的思想设计遗传算子,改进选择、交叉、变异算子的设计,始终保留种群中最好的个体。实验结果显示,传统遗传算法组卷需要34.586 s,成功率为83%,大模型自动组卷算法则能在8.565 s内完成,但成功率略降至81%。相比之下,该文提出的基于认知诊断与大模型优化的遗传算法自动组卷方法,不仅将组卷效率大幅提升至0.673 s,而且成功率高达100%,完全满足了实际应用的需求。这一方法显著优于前述两种算法,展现出在效率和成功率上的双重优势。 展开更多
关键词 自动组卷 认知诊断 大语言模型 遗传算法
在线阅读 下载PDF
知识图谱与大语言模型协同共生模式及其教育应用综述
10
作者 李晓理 刘春芳 耿劭坤 《计算机工程与应用》 北大核心 2025年第15期1-13,共13页
近年,人工智能技术,特别是大语言模型、知识图谱技术的迅速发展,为教育的数字化、智能化转型提供了重要的技术条件。分别分析了大语言模型与知识图谱两技术在智能教育领域的应用优势、现状以及存在的问题。在此基础上,深入探讨了知识图... 近年,人工智能技术,特别是大语言模型、知识图谱技术的迅速发展,为教育的数字化、智能化转型提供了重要的技术条件。分别分析了大语言模型与知识图谱两技术在智能教育领域的应用优势、现状以及存在的问题。在此基础上,深入探讨了知识图谱与大语言模型的协同共生模式,包括两者相互增强的方式方法,并对协同技术研究现状进行了归纳分析,总结了近年来在教育领域的相关应用。最后,对知识图谱与大语言模型技术联合应用于教育领域的发展趋势进行了总结与展望。 展开更多
关键词 知识图谱(KG) 大语言模型(llm) 智能教育
在线阅读 下载PDF
基于大模型的具身智能系统综述 被引量:13
11
作者 王文晟 谭宁 +3 位作者 黄凯 张雨浓 郑伟诗 孙富春 《自动化学报》 北大核心 2025年第1期1-19,共19页
得益于近期具有世界知识的大规模预训练模型的迅速发展,基于大模型的具身智能在各类任务中取得了良好的效果,展现出强大的泛化能力与在各领域内广阔的应用前景.鉴于此,对基于大模型的具身智能的工作进行了综述,首先,介绍大模型在具身智... 得益于近期具有世界知识的大规模预训练模型的迅速发展,基于大模型的具身智能在各类任务中取得了良好的效果,展现出强大的泛化能力与在各领域内广阔的应用前景.鉴于此,对基于大模型的具身智能的工作进行了综述,首先,介绍大模型在具身智能系统中起到的感知与理解作用;其次,对大模型在具身智能中参与的需求级、任务级、规划级和动作级的控制进行了较为全面的总结;然后,对不同具身智能系统架构进行介绍,并总结了目前具身智能模型的数据来源,包括模拟器、模仿学习以及视频学习;最后,对基于大语言模型(Large language model,LLM)的具身智能系统面临的挑战与发展方向进行讨论与总结. 展开更多
关键词 大语言模型 大型视觉模型 基础模型 具身智能 机器人
在线阅读 下载PDF
基于大语言模型生成内容的负面舆情态势恶化牵引作用研究
12
作者 祁凯 周燕生 《情报杂志》 北大核心 2025年第8期153-161,171,共10页
[研究目的]探索大语言模型生成内容在负面网络舆情传播中的牵引作用及其对网络舆情安全的潜在风险,为网络舆情管理提供科学依据与应对策略。[研究方法]为有效监测和管理负面网络舆情,构建了基于ALBERT-XGBoost的情感分析模型,并结合LDA... [研究目的]探索大语言模型生成内容在负面网络舆情传播中的牵引作用及其对网络舆情安全的潜在风险,为网络舆情管理提供科学依据与应对策略。[研究方法]为有效监测和管理负面网络舆情,构建了基于ALBERT-XGBoost的情感分析模型,并结合LDA主题建模和Mantel Test统计方法,形成负面舆情态势恶化的牵引效应量化分析框架,以定量方式探究LLM生成内容对负面舆情的影响。[研究结果/结论]突发事件实证分析表明:大语言模型生成内容在负面舆情的萌芽、爆发、复燃与衰退各阶段均显著助推了谣言扩散和情绪激化,尤其在放大公众的不信任情绪和推动情绪波动方面影响显著。并由此提出针对性的应对机制,为缓解大语言模型对负面舆情的牵引作用提供理论支持。 展开更多
关键词 大语言模型 负面网络舆情 公共突发事件 情感分析 反制机制 LDA
在线阅读 下载PDF
融合大语言模型和提示学习的数字孪生水利知识图谱构建 被引量:4
13
作者 杨燕 叶枫 +2 位作者 许栋 张雪洁 徐津 《计算机应用》 北大核心 2025年第3期785-793,共9页
构建数字孪生水利建设知识图谱挖掘水利建设对象之间的潜在关系能够帮助相关人员优化水利建设设计方案和决策。针对数字孪生水利建设的学科交叉和知识结构复杂的特性,以及通用知识抽取模型缺乏对水利领域知识的学习和知识抽取精度不足... 构建数字孪生水利建设知识图谱挖掘水利建设对象之间的潜在关系能够帮助相关人员优化水利建设设计方案和决策。针对数字孪生水利建设的学科交叉和知识结构复杂的特性,以及通用知识抽取模型缺乏对水利领域知识的学习和知识抽取精度不足等问题,为提高知识抽取的精度,提出一种基于大语言模型的数字孪生水利建设知识抽取方法(DTKE-LLM)。该方法通过LangChain部署本地大语言模型(LLM)并集成数字孪生水利领域知识,基于提示学习微调LLM,LLM利用语义理解和生成能力抽取知识,同时,设计异源实体对齐策略优化实体抽取结果。在水利领域语料库上进行对比实验和消融实验,以验证所提方法的有效性。对比实验结果表明,相较于基于深度学习的双向长短期记忆条件随机场(BiLSTM-CRF)命名实体识别模型和通用信息抽取模型UIE(Universal Information Extraction),DTKE-LLM的精确率更优;消融实验结果表明,相较于ChatGLM2-6B(Chat Generative Language Model 2.6 Billion),DTKE-LLM的实体抽取和关系抽取F1值分别提高了5.5和3.2个百分点。可见,该方法在保障知识图谱构建质量的基础上,实现了数字孪生水利建设知识图谱的构建。 展开更多
关键词 大语言模型 提示学习 知识图谱 知识抽取 数字孪生水利建设
在线阅读 下载PDF
个性化学情感知的智慧助教算法设计与实践 被引量:2
14
作者 董艳民 林佳佳 +6 位作者 张征 程程 吴金泽 王士进 黄振亚 刘淇 陈恩红 《计算机应用》 北大核心 2025年第3期765-772,共8页
随着大语言模型(LLM)的快速发展,基于LLM的对话助手逐渐成为学生学习的新方式。通过学生的问答互动,对话助手能生成相应的解答,从而帮助学生解决问题,并提高学习效率。然而,现有的对话助手忽略了学生的个性化需求,无法为学生提供个性化... 随着大语言模型(LLM)的快速发展,基于LLM的对话助手逐渐成为学生学习的新方式。通过学生的问答互动,对话助手能生成相应的解答,从而帮助学生解决问题,并提高学习效率。然而,现有的对话助手忽略了学生的个性化需求,无法为学生提供个性化的回答,实现“因材施教”。因此,提出一种基于学生能力感知的个性化对话助手框架。该框架包括2个主要模块:学生能力感知模块和个性化回答生成模块。能力感知模块通过分析学生的答题记录来挖掘学生的知识掌握程度,回答生成模块则根据学生的能力生成个性化回答。基于此框架,设计基于指令、基于小模型驱动和基于智能体Agent的3种实现范式,以深入探讨框架的实际效果。基于指令的对话助手利用LLM的推理能力,从学生的答题记录中挖掘知识掌握程度以帮助生成个性化回答;基于小模型驱动的对话助手利用深度知识追踪(DKT)模型生成学生的知识掌握程度;基于Agent的个性化对话助手采用LLM Agent的方式整合学生能力感知、个性化检测、答案修正等工具辅助答案的生成。基于ChatGLM(Chat General Language Model)、GPT4o_mini的对比实验结果表明,应用3种范式的LLM均能为学生提供个性化的回答,其中基于Agent的范式的准确度更高,表明该范式能更好地感知学生能力,并生成个性化回答。 展开更多
关键词 智慧教育 个性化对话助手 大语言模型 知识追踪 llm智能体
在线阅读 下载PDF
大语言模型安全与隐私风险综述 被引量:1
15
作者 姜毅 杨勇 +6 位作者 印佳丽 刘小垒 李吉亮 王伟 田有亮 巫英才 纪守领 《计算机研究与发展》 北大核心 2025年第8期1979-2018,共40页
近年来,大语言模型(large language model,LLM)作为深度学习网络技术的关键分支,在自然语言处理(natural language processing,NLP)领域取得了一系列突破性成就,并被广泛采用.然而,在其包括预训练、微调和实际部署在内的完整生命周期中... 近年来,大语言模型(large language model,LLM)作为深度学习网络技术的关键分支,在自然语言处理(natural language processing,NLP)领域取得了一系列突破性成就,并被广泛采用.然而,在其包括预训练、微调和实际部署在内的完整生命周期中,多种安全威胁和隐私泄露的风险相继被发现,引起了学术和工业界越来越多的关注.首先以LLM发展过程中出现的预训练-微调范式、预训练-提示学习范式和预训练-指令微调范式为线索,梳理了针对LLM的常规安全威胁,即3种对抗攻击(对抗样本攻击、后门攻击、投毒攻击)的代表性研究,接着总结了一些最新工作披露的新型安全威胁,然后介绍了LLM的隐私风险及其研究进展.相关内容有助于LLM的研究和部署者在模型设计、训练及应用过程中,识别、预防和缓解这些威胁与风险,同时实现模型性能与安全及隐私保护之间的平衡. 展开更多
关键词 大语言模型 预训练语言模型 安全 隐私 威胁
在线阅读 下载PDF
大语言模型驱动的跨领域属性级情感分析 被引量:4
16
作者 李诗晨 王中卿 周国栋 《软件学报》 北大核心 2025年第2期644-659,共16页
属性级情感分析作为一种细粒度情感分析方法,目前在许多应用场景中都具有重要作用.然而,随着社交媒体和在线评论的日益广泛以及各类新兴领域的出现,使得跨领域属性级情感分析面临着标签数据不足以及源领域与目标领域文本分布差异等挑战... 属性级情感分析作为一种细粒度情感分析方法,目前在许多应用场景中都具有重要作用.然而,随着社交媒体和在线评论的日益广泛以及各类新兴领域的出现,使得跨领域属性级情感分析面临着标签数据不足以及源领域与目标领域文本分布差异等挑战.目前已有许多数据增强方法试图解决这些问题,但现有方法生成的文本仍存在语义不连贯、结构单一以及特征与源领域过于趋同等问题.为了克服这些问题,提出一种基于大语言模型(large language model,LLM)数据增强的跨领域属性级情感分析方法.所提方法利用大模型丰富的语言知识,合理构建针对跨领域属性级别情感分析任务的引导语句,挖掘目标领域与源领域相似文本,通过上下文学习的方式,使用领域关联关键词引导LLM生成目标领域有标签文本数据,用以解决目标领域数据缺乏以及领域特异性问题,从而有效提高跨领域属性级情感分析的准确性和鲁棒性.所提方法在多个真实数据集中进行实验,实验结果表明,该方法可以有效提升基线模型在跨领域属性级情感分析中的表现. 展开更多
关键词 属性级情感分析 大语言模型(llm) 迁移学习 数据增强 领域适应
在线阅读 下载PDF
大语言模型的幻觉问题研究综述 被引量:13
17
作者 刘泽垣 王鹏江 +2 位作者 宋晓斌 张欣 江奔奔 《软件学报》 北大核心 2025年第3期1152-1185,共34页
随着以Transformer为代表的预训练模型等深度学习技术的发展,大语言模型(LLM)日益展现出强大的理解力和创造力,对抽象摘要、对话生成、机器翻译和数据到文本生成等下游任务产生了重要影响,同时也在图像说明、视觉叙事等多模态领域展现... 随着以Transformer为代表的预训练模型等深度学习技术的发展,大语言模型(LLM)日益展现出强大的理解力和创造力,对抽象摘要、对话生成、机器翻译和数据到文本生成等下游任务产生了重要影响,同时也在图像说明、视觉叙事等多模态领域展现出了广阔的应用前景.虽然大语言模型具备显著的性能优势,但深度学习架构使其难以避免内容幻觉问题,这不仅会削减系统性能,还严重影响其可信性和应用广泛性,由此衍生的法律风险和伦理风险成为掣肘其进一步发展与落地的主要障碍.聚焦大语言模型的幻觉问题,首先,对大语言模型的幻觉问题展开系统概述,分析其来源及成因;其次,系统概述大语言模型幻觉问题的评估方法和缓解方法,对不同任务的评估和缓解方法类型化并加以深入比较;最后,从评估和缓解角度展望应对幻觉问题的未来趋势和应对方案. 展开更多
关键词 可信人工智能 大语言模型 幻觉 幻觉评估与缓解
在线阅读 下载PDF
基于大语言模型的多智能体协作代码评审人推荐 被引量:2
18
作者 王路桥 周洋涛 +5 位作者 李青山 王铭康 徐子轩 崔笛 王璐 罗懿行 《软件学报》 北大核心 2025年第6期2558-2575,共18页
基于拉取请求(pull request,PR)的软件开发机制是开源软件中的重要实践.合适的代码评审人能够通过代码审查帮助贡献者及时发现PR中的潜在错误,为持续开发和集成过程提供质量保障.然而,代码变更内容的复杂性以及评审行为固有的多样性增... 基于拉取请求(pull request,PR)的软件开发机制是开源软件中的重要实践.合适的代码评审人能够通过代码审查帮助贡献者及时发现PR中的潜在错误,为持续开发和集成过程提供质量保障.然而,代码变更内容的复杂性以及评审行为固有的多样性增加了评审人推荐的难度.现有方法主要聚焦于从PR中挖掘变更代码的语义信息,或基于审查历史构建评审人画像,并通过多种静态策略组合进行推荐.这些研究受限于模型训练语料的丰富性以及交互类型的复杂性,导致推荐性能不佳.鉴于此,提出一种基于智能体间相互协作的代码评审人推荐方法.该方法利用先进的大语言模型,精确捕捉PR和评审人丰富的文本语义信息.此外,AI智能体强大的规划、协作和决策能力使其能够集成不同交互类型的信息,具有高度的灵活性和适应性.基于真实数据集进行实验分析,与基线评审人推荐方法相比,所提方法性能提升4.45%–26.04%.此外,案例研究证明,所提方法在可解释性方面表现突出,进一步验证了其在实际应用中的有效性和可靠性. 展开更多
关键词 代码评审人推荐 基于智能体的软件工程 大型语言模型 代码审查
在线阅读 下载PDF
智能化芯片设计程序测试研究综述 被引量:1
19
作者 李晓鹏 闫明 +5 位作者 樊兴宇 唐振韬 开昰雄 郝建业 袁明轩 陈俊洁 《软件学报》 北大核心 2025年第6期2453-2476,共24页
在当今智能化的时代背景下,芯片作为智能电子设备的核心组件,在人工智能、物联网、5G通信等诸多领域发挥着关键作用,保障芯片的正确性、安全性和可靠性至关重要.在芯片的开发流程中,开发人员首先需要利用硬件描述语言,将芯片设计实现成... 在当今智能化的时代背景下,芯片作为智能电子设备的核心组件,在人工智能、物联网、5G通信等诸多领域发挥着关键作用,保障芯片的正确性、安全性和可靠性至关重要.在芯片的开发流程中,开发人员首先需要利用硬件描述语言,将芯片设计实现成软件形式(即芯片设计程序),然后再进行物理设计并最终流片(即生产制造).作为芯片设计制造的基础,芯片设计程序的质量直接影响了芯片的质量.因此,针对芯片设计程序的测试具有重要研究意义.早期的芯片设计程序测试方法主要依赖开发人员人工设计测试用例来测试芯片设计程序,往往需要大量的人工成本和时间代价.随着芯片设计程序复杂度的日益增长,诸多基于仿真的自动化芯片设计程序测试方法被提出,提升了芯片设计程序测试效率及有效性.近年来,越来越多的研究者致力于将机器学习、深度学习和大语言模型(LLM)等智能化方法应用于芯片设计程序测试领域.调研88篇智能化芯片设计程序测试相关的学术论文,从测试输入生成、测试预言构造及测试执行优化这3个角度对智能化芯片设计程序测试已有成果进行整理归纳,重点梳理芯片设计程序测试方法从机器学习阶段、深度学习阶段到大语言模型阶段的演化,探讨不同阶段方法在提高测试效率和覆盖率、降低测试成本等方面的潜力.同时,介绍芯片设计程序测试领域的研究数据集和工具,并展望未来的发展方向和挑战. 展开更多
关键词 芯片设计程序测试 大语言模型 测试用例生成
在线阅读 下载PDF
国际学界关于ChatGPT语言能力的争论与思考 被引量:2
20
作者 时仲 田英慧 司富珍 《语言战略研究》 北大核心 2025年第1期75-86,共12页
随着ChatGPT为代表的大语言模型在应用方面取得极大成功,语言官能是否为人类独有的问题引起热议,国际学界形成两个对立的阵营。一方认为,大语言模型语言理解和产出方面达到了媲美人类的水准,对乔姆斯基的语言学理论提出了挑战,甚至足以... 随着ChatGPT为代表的大语言模型在应用方面取得极大成功,语言官能是否为人类独有的问题引起热议,国际学界形成两个对立的阵营。一方认为,大语言模型语言理解和产出方面达到了媲美人类的水准,对乔姆斯基的语言学理论提出了挑战,甚至足以取代生成语法的语言学理论地位。另一方则认为,人类语言习得“刺激贫乏”但生成能力惊人,而大语言模型“学习”语言依靠输入海量数据,因此,它无法对人类语言的本质问题给出合理性解释,在语言的核心属性方面与人类语言官能存在本质区别。不少实证测试也对夸大大语言模型在语言学理论中的地位的观点进行了批判。本文认为,对这一问题的讨论,首先应思考如下问题:(1)区分科学理论建构与工程应用;(2)对“可能的语言”与“不可能的语言”的区分做出原则性的预测与解释;(3)探讨自然语言习得“刺激贫乏”与大语言模型依靠“豪华型”海量数据之对立背后的深层原因;(4)对句法在人类语言和大语言模型中的地位进行更多维度和更系统的对比评测。 展开更多
关键词 ChatGPT 大语言模型 刺激贫乏 可能的语言 不可能的语言
在线阅读 下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部