期刊文献+
共找到48篇文章
< 1 2 3 >
每页显示 20 50 100
一种可解释人工智能(XAI)在测量设备故障诊断和寿命预测中的应用 被引量:8
1
作者 陈长基 梁树华 +4 位作者 吴达雷 于秀丽 陈育培 吴孟科 顾婷婷 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第1期167-177,共11页
基于人工智能算法的变压器故障诊断和寿命预测模型在提高准确率方面已经达到了很好的效果,但是仍存在泛化性能较低,对数据质量要求过高,判断结果无法解释等问题.该文基于DBSO-CatBoost模型,提出一种可用于故障判断解释的变压器故障诊断... 基于人工智能算法的变压器故障诊断和寿命预测模型在提高准确率方面已经达到了很好的效果,但是仍存在泛化性能较低,对数据质量要求过高,判断结果无法解释等问题.该文基于DBSO-CatBoost模型,提出一种可用于故障判断解释的变压器故障诊断方法.该方法基于数据特征提取,采用差分变异头脑风暴优化(DBSD)算法对CatBoost模型进行优化和故障诊断.①对于数据预处理,引入比率法在原始数据中添加特征;采用基于可解释人工智能(XAI)的Shapley加法解释(SHAP)技术进行特征提取,并采用核主成分分析算法对数据进行降维.Shapley加法解释技术可根据特征贡献解码每个预测来帮助全局解释并评估预测结果.②将预处理后的数据输入到CatBoost模型中进行训练,并采用差分变异头脑风暴优化算法对CatBoost模型的参数进行优化,从而得到最优模型.③利用得到的优化模型诊断变压器故障并输出故障类型与预测结果.实验使用来自中国国家电网公司西北部某电网的真实数据评估该模型.结果表明:该文模型在不同故障诊断中的准确性最佳,平均准确率高达99.29%,证明该文方法可以有效提高电力变压器故障诊断的准确性和效率. 展开更多
关键词 可解释人工智能 故障诊断 寿命预测 机器学习 电力变压器
在线阅读 下载PDF
基于可解释人工智能(XAI)的热带气旋直接经济损失评估研究
2
作者 刘淑贤 刘扬 +2 位作者 杨琨 张立生 张源达 《热带气象学报》 CSCD 北大核心 2024年第6期943-953,共11页
可解释人工智能(eXplainable Artificial Intelligence,XAI)已经成为人工智能研究领域的重要发展方向,该技术可以帮助解释模型如何做出预测和决策,在气象灾害评估领域具有较大应用价值。本研究旨在利用机器学习算法评估热带气旋(Tropica... 可解释人工智能(eXplainable Artificial Intelligence,XAI)已经成为人工智能研究领域的重要发展方向,该技术可以帮助解释模型如何做出预测和决策,在气象灾害评估领域具有较大应用价值。本研究旨在利用机器学习算法评估热带气旋(Tropical Cyclone,TC)的直接经济损失,并采用XAI方法SHAP(SHapley Additive exPlanations),从全局和局部层面分析特征因素对模型预测的影响和贡献。结果表明,随机森林(Random Forest,RF)模型在均方根误差、平均绝对误差和决定系数这三个评估指标中均优于LightGBM(Light Gradient Boosting Machine)模型,指标值分别达到了23.6、11.1和0.9。根据SHAP值,RF模型中最重要的三个因素分别是极大风速、最大日雨量和暴雨站点比例。具体而言,当样本的极大风速值大于45 m·s^(-1)、最大日雨量值超过250 mm以及暴雨站点比例高于30%时,往往对TC直接经济损失预测值产生较大的正贡献。该研究可以为决策者制定灾害风险管理策略提供有力的科学依据和理论支持。 展开更多
关键词 热带气旋 直接经济损失 机器学习 可解释人工智能 SHAP
在线阅读 下载PDF
人工智能可解释的制度建构 被引量:6
3
作者 周辉 《山东师范大学学报(社会科学版)》 北大核心 2025年第1期94-106,共13页
可解释是建立人工智能系统信任的关键要素之一,如何实现人工智能系统可解释,提升系统在不同场景下的可解释性,已随人工智能技术的发展而日渐受到关注。人工智能可解释性的实现面临必要性质疑和可行性困境,需要在明确人工智能可解释制度... 可解释是建立人工智能系统信任的关键要素之一,如何实现人工智能系统可解释,提升系统在不同场景下的可解释性,已随人工智能技术的发展而日渐受到关注。人工智能可解释性的实现面临必要性质疑和可行性困境,需要在明确人工智能可解释制度效能的基础上,突破设定解释义务的单一路径,进行体系化、层次化、动态化的制度建构。在人工智能立法中嵌入人工智能可解释的基本原则,应当区分监管模式、使用者模式、专业模式下的可解释性义务要求,并建立对解释进行评估监管的具体方案,以促进人工智能可解释的实现,迈向可监管、可维权、可创新的人工智能。 展开更多
关键词 可解释 人工智能 算法解释 制度建构
在线阅读 下载PDF
AI驱动的自动驾驶汽车轨迹预测方法综述
4
作者 田大新 肖啸 周建山 《交通运输系统工程与信息》 北大核心 2025年第5期1-24,共24页
在自动驾驶系统中,轨迹预测作为感知与决策之间的重要桥梁,对于保障行车安全和提升系统鲁棒性具有关键意义。近年来,随着人工智能技术的不断发展,AI驱动的轨迹预测方法在精度、适应性,以及对复杂交通环境的建模能力方面取得了显著进展... 在自动驾驶系统中,轨迹预测作为感知与决策之间的重要桥梁,对于保障行车安全和提升系统鲁棒性具有关键意义。近年来,随着人工智能技术的不断发展,AI驱动的轨迹预测方法在精度、适应性,以及对复杂交通环境的建模能力方面取得了显著进展。本文围绕“预测模型”这一主线,系统梳理自动驾驶场景下的主流轨迹预测方法。首先,回顾基于物理模型的传统方法;其次,重点综述当前的研究热点,包括基于传统机器学习、深度神经网络和强化学习等方法的建模范式;同时,介绍近年来兴起的可解释性AI方法在提升模型透明度与安全性方面的探索进展,在比较不同方法的基础上,分析各类模型在处理交互建模、多模态不确定性及泛化能力等方面的优势与不足;接着,在方法对比的基础上,进一步整理轨迹预测评估指标和公开数据集的特点与适用范围,同时汇总国内外典型的落地案例;最后,结合当前研究瓶颈与发展趋势,展望未来轨迹预测可能的研究方向,包括模型的可解释性增强,多模态信息的有效融合及预测与决策规划的一体化设计等。希望本文能为后续相关研究提供有价值的参考和启发。 展开更多
关键词 智能交通 轨迹预测 人工智能 自动驾驶 深度学习 可解释性
在线阅读 下载PDF
面向零样本图像分类的交互式类属性构建方法
5
作者 刘真 徐景胜 +2 位作者 颜菁 徐润森 吴向阳 《计算机辅助设计与图形学学报》 北大核心 2025年第2期243-253,共11页
零样本图像分类解决了训练和测试数据类别不相交的问题,人类标注属性是一种常用的实现零样本图像分类的辅助知识.为协助专家设计类属性矩阵,提出了一种交互式构建方法,简化了烦琐且缺乏指导的流程.首先,通过一种基于概念的深度学习可解... 零样本图像分类解决了训练和测试数据类别不相交的问题,人类标注属性是一种常用的实现零样本图像分类的辅助知识.为协助专家设计类属性矩阵,提出了一种交互式构建方法,简化了烦琐且缺乏指导的流程.首先,通过一种基于概念的深度学习可解释性方法,在训练集图像数据中提取出可理解的属性信息;然后,采用多视图协作的交互方式,探索和分析已提取属性的重要性.系统提供了全局和局部2种方式,辅助用户设计测试集数据类别的属性值;最后,通过在数据集Animals with Attributes2上进行的案例分析,以及采用李克特量表的用户评估实验,验证了设计方法的有效性和实用性,可以帮助专家用户高效且便捷地完成类属性构建工作. 展开更多
关键词 零样本学习 零样本图像分类 可视分析 可解释人工智能 人机协作
在线阅读 下载PDF
可解释人工智能城市设计:从科学问题到方法建构
6
作者 杨俊宴 《城市规划》 北大核心 2025年第7期29-41,共13页
智能城市设计的形成与新一代技术革命有深切的关系,在ChatGPT、DeepSeek等通用智能大模型技术影响下,城市设计发展面临新的机遇与挑战,进入到可解释智能设计生成的核心技术圈层。本文阐述了大科学时代城市设计领域的最新发展,凝练了国... 智能城市设计的形成与新一代技术革命有深切的关系,在ChatGPT、DeepSeek等通用智能大模型技术影响下,城市设计发展面临新的机遇与挑战,进入到可解释智能设计生成的核心技术圈层。本文阐述了大科学时代城市设计领域的最新发展,凝练了国际智能城市设计研究的四种学术流派,诠释了复杂城市形态巨系统的建构机理、城市形态的先验—循证双通道智能设计生成逻辑、工程级的可解释智能城市设计和迭代优化过程等科学问题,提出未来城市设计科学的转型提升方向,并建构可解释人工智能城市设计的工作框架,提出全球城市矢量三维形态自学习、刚性行业规范与柔性专业知识结合的约束生成、人机交互修正的空间形态对抗迭代优化等核心方法。在此基础上,提出未来人工智能城市设计的内核式理论体系与交叉研究前沿发展趋势。 展开更多
关键词 可解释人工智能 城市设计 生成式设计
在线阅读 下载PDF
辽河口盐地碱蓬时空动态遥感监测及其识别机理研究
7
作者 李钰彬 王宗明 +4 位作者 赵传朋 贾明明 任春颖 毛德华 于皓 《自然资源遥感》 北大核心 2025年第1期195-203,共9页
作为全球面积最大的红海滩景观,监测辽河口盐地碱蓬的时空动态变化对揭示其“退养还湿”等保护措施成效具有重要意义。目前,卫星遥感技术已广泛应用于包括盐地碱蓬在内的滨海植被识别与制图,但现有分类方法依赖于难以解释的黑箱模型,忽... 作为全球面积最大的红海滩景观,监测辽河口盐地碱蓬的时空动态变化对揭示其“退养还湿”等保护措施成效具有重要意义。目前,卫星遥感技术已广泛应用于包括盐地碱蓬在内的滨海植被识别与制图,但现有分类方法依赖于难以解释的黑箱模型,忽视了对识别机理的探究,制约了相关方法的改进和发展。可解释人工智能的发展为黑箱算法的解析指出了新的方向。考虑到构成随机森林的决策规则具有可解释性,本研究构建了一套从已训练随机森林模型中抽取最优决策规则的新方法,最终重构得到识别盐地碱蓬的最优决策规则,即B3/B4<0.90且B5/B3≥1.46,数据整体精度优于90%;以2017—2022年的Sentinel-2影像为数据源,实现了对辽河口盐地碱蓬的逐年动态提取,并结合质心迁移法,分析了“退养还湿”工程实施后盐地碱蓬时空变化,揭示了该区域盐地碱蓬呈现快速恢复的现状。 展开更多
关键词 退养还湿 碱蓬 可解释人工智能 随机森林 决策规则
在线阅读 下载PDF
医学人工智能可解释性的伦理接受度问题探讨
8
作者 吕雪梅 邓蕊 《医学与哲学》 北大核心 2025年第13期1-6,共6页
医学人工智能提升诊疗效率和准确性的同时,伴随“黑箱”难以解释的问题。医学人工智能的可解释性与可解释的医学人工智能已是学界焦点。可解释性是实现负责任应用人工智能的伦理要求,应在尊重患者利益与自主性的前提下,多元主体协同实... 医学人工智能提升诊疗效率和准确性的同时,伴随“黑箱”难以解释的问题。医学人工智能的可解释性与可解释的医学人工智能已是学界焦点。可解释性是实现负责任应用人工智能的伦理要求,应在尊重患者利益与自主性的前提下,多元主体协同实现“黑箱”人工智能模型在可控范围内造福医疗实践。提出“伦理接受度”概念,评析学界关于医学人工智能可解释性的论辩,分析伦理接受度的核心内容,构建动态模型以识别不同情境的接受问题,提出最低解释义务、风险责任对等与协商共建机制的底线原则,促进情境式混合解释框架搭建。 展开更多
关键词 医学人工智能 可解释性 伦理接受度
在线阅读 下载PDF
基于可解释人工智能的流量对抗样本攻击及防御方法
9
作者 马博文 郭渊博 +2 位作者 田继伟 马骏 胡永进 《通信学报》 北大核心 2025年第4期160-173,共14页
针对基于人工智能的网络入侵检测系统,提出了一种基于可解释人工智能(XAI)的对抗样本攻击方法。利用XAI方法识别关键扰动特征,在保持流量功能时逐步进行针对性扰动,直至恶意流量被判定为良性,实现对抗流量样本攻击。这种方法可以大幅减... 针对基于人工智能的网络入侵检测系统,提出了一种基于可解释人工智能(XAI)的对抗样本攻击方法。利用XAI方法识别关键扰动特征,在保持流量功能时逐步进行针对性扰动,直至恶意流量被判定为良性,实现对抗流量样本攻击。这种方法可以大幅减少扰动特征,增强了攻击隐蔽性,而且其所识别的关键特征对不同分类器具有一致性,使得攻击样本具有较强的迁移性。在防御方面,提出了一种基于对抗训练的防御方法,以提升网络入侵检测系统的鲁棒性。实验结果表明,所提攻击方法具有较高的攻击成功率和迁移成功率;所提防御方法可以有效降低对抗样本攻击的成功率,增强了系统的鲁棒性。 展开更多
关键词 对抗样本攻击 可解释人工智能 网络入侵检测 恶意对抗流量
在线阅读 下载PDF
物联网应用中的可解释人工智能研究综述
10
作者 赵小阳 许新征 李仲年 《计算机应用》 北大核心 2025年第7期2169-2179,共11页
在物联网(IoT)时代,人工智能(AI)与IoT的结合已经成为推动技术发展和应用创新的重要趋势。随着设备连接数量的指数级增长,提升终端用户对智能系统的信任度变得尤为关键。可解释人工智能(XAI)指能提供它们的决策过程和结果解释的AI系统。... 在物联网(IoT)时代,人工智能(AI)与IoT的结合已经成为推动技术发展和应用创新的重要趋势。随着设备连接数量的指数级增长,提升终端用户对智能系统的信任度变得尤为关键。可解释人工智能(XAI)指能提供它们的决策过程和结果解释的AI系统。XAI的出现推动了AI技术的发展,并增强了用户对AI系统的信任。因此,对IoT应用中的XAI研究进行综述。首先,介绍IoT和XAI的相关背景及意义;其次,介绍XAI的定义及关键技术;接着,介绍传统AI驱动的IoT应用的最新进展和XAI驱动的IoT应用的最新进展;最后,对XAI在IoT应用中的未来发展方向和相关挑战分别进行总结和展望。 展开更多
关键词 可解释人工智能 深度学习 物联网 智慧医疗 智慧工业 智慧城市
在线阅读 下载PDF
智能诊断模型的可解释性策略研究
11
作者 于海涛 牟冬梅 王长聪 《现代情报》 北大核心 2025年第10期115-124,共10页
[目的/意义]面向疾病诊断场景,探讨基于知识和数据融合的人工智能诊断模型的可解释性策略,为促进智能医学发展,进一步加强情报学、数据科学与医学学科间的交叉融合。[方法/过程]结合多学科理论和方法,从知识数据双轮驱动角度,构建可解... [目的/意义]面向疾病诊断场景,探讨基于知识和数据融合的人工智能诊断模型的可解释性策略,为促进智能医学发展,进一步加强情报学、数据科学与医学学科间的交叉融合。[方法/过程]结合多学科理论和方法,从知识数据双轮驱动角度,构建可解释性的智能诊断理论模型框架,并以病毒性肺炎和细菌性肺炎的鉴别诊断进行实证研究。[结果/结论]本文从情报学视角出发,阐述了可解释性智能诊断模型构建策略,并通过实际场景应用验证模型框架的可行性与合理性。 展开更多
关键词 双轮驱动 人工智能 可解释性 智能诊断 肺炎
在线阅读 下载PDF
基于黑麂分布模型优化的钱江源园区管控分区合理性评估
12
作者 李知晓 吴承照 《生态学报》 北大核心 2025年第16期7753-7768,共16页
黑麂(Muntiacus crinifrons)为国家一级保护野生动物,是钱江源⁃百山祖国家公园候选区钱江源园区(简称钱江源园区)的旗舰物种,科学的管控分区对黑麂种群和栖息地的保护具有重要的意义。为了科学评价黑麂栖息地的适宜性,支撑其种群保护与... 黑麂(Muntiacus crinifrons)为国家一级保护野生动物,是钱江源⁃百山祖国家公园候选区钱江源园区(简称钱江源园区)的旗舰物种,科学的管控分区对黑麂种群和栖息地的保护具有重要的意义。为了科学评价黑麂栖息地的适宜性,支撑其种群保护与栖息地恢复,引入堆叠泛化集成算法(Stacked generalization-based ensemble algorithm,Stacking)来优化物种分布模型(Species distribution model,SDM);采用特征重要性分析、夏普雷加性解释(SHapley Additive exPlanations,SHAP)和部分依赖图(Partial dependence plots,PDPs)等可解释人工智能(Explainable artificial intelligence,XAI)方法,来揭示影响黑麂栖息地适宜性的主要因素及其影响机制,提升SDM的透明度;将预测结果与钱江源园区的管控分区、道路和村镇居民点分布叠加分析,从而识别人与黑麂的潜在空间冲突,以评估管控分区在黑麂保护中的合理性。结果显示,钱江源园区的黑麂适宜栖息地集中在南部和西部,约39.49 km^(2),占总面积的15.67%,其中81.29%位于核心保护区,表明管控分区基本合理。核心保护区中适宜栖息地净损失约1.77 km^(2),占适宜栖息地净损失总面积的57.1%。人与黑麂冲突集中在北部的核心保护区,表明就地保护、植被修复或原住民搬迁难以满足保护需求,管控措施亟待优化。降水、温度、海拔和人为干扰是影响黑麂栖息地适宜性的主要因素,在降水量偏高、海拔偏高、气温凉爽、低人为干扰的区域,栖息地的适宜性较高。建议通过加强物种监测与栖息地适宜性评估、实施适应性分区框架、设立缓冲区、构建生态廊道、制定气候变化预警方案等措施,来加强黑麂栖息地的整体保护,推动钱江源园区管理精细化转型。研究可为钱江源园区的黑麂保护和空间治理提供科学依据。 展开更多
关键词 国家公园规划与管理 物种分布模型(SDM) 机器学习(ML) 堆叠泛化集成算法(Stacking) 可解释人工智能(xai)
在线阅读 下载PDF
面向学术信息推荐的用户信任可解释模型构建
13
作者 陈韵怡 吴丹 夏子硕 《情报学报》 北大核心 2025年第9期1192-1203,共12页
随着人工智能先进程度的提高,无法解释的“黑匣”正在阻碍人们对系统的理解和信任,限制了人与人工智能的合作关系。本文以提升人工智能的可解释性为核心,面向学术信息智能推荐这一应用场景,提出并验证了分阶段的、以问题为导向的、面向... 随着人工智能先进程度的提高,无法解释的“黑匣”正在阻碍人们对系统的理解和信任,限制了人与人工智能的合作关系。本文以提升人工智能的可解释性为核心,面向学术信息智能推荐这一应用场景,提出并验证了分阶段的、以问题为导向的、面向学术信息推荐的用户信任可解释模型。该模型从人机交互的过程出发,将交互全流程划分为初次接触、开始交互、深入协作三阶段,规定了各阶段应对哪些问题进行解释,以实现提升用户信任、促进人机交互的效果。然后,验证了该模型的有效性与合理性,并基于扎根理论对访谈内容进行开放式编码、主轴式编码、选择性编码三级编码,采用编码结果对模型进行阐释与完善,提出可解释实践优化策略。本文提出的分阶段、问题导向的可解释模型能够多层面提升用户信任,其解释内容、呈现形式、语言风格与用户的系统认知、使用意愿和使用行为之间存在映射关系。基于此,本文针对各阶段解释问题,从解释内容和呈现形式两个方面提出各交互阶段的具体指导策略,以期为可解释人工智能的构建提供助力。 展开更多
关键词 可解释人工智能 用户信任 学术信息推荐 人机交互
在线阅读 下载PDF
影像医学与核医学可解释人工智能的文献计量研究
14
作者 舒培州 左仟岭 +3 位作者 高海洋 汪子悦 施洪鑫 陈翼 《放射学实践》 北大核心 2025年第9期1166-1172,共7页
目的:通过文献计量学方法,分析影像医学与核医学领域可解释人工智能(XAI)的研究现状和趋势,为该领域人工智能(AI)相关研究提供参考。方法:使用Web of Science数据库检索截至2024年6月的XAI相关文献,并利用Bibliometrix、VOSviewer和Cite... 目的:通过文献计量学方法,分析影像医学与核医学领域可解释人工智能(XAI)的研究现状和趋势,为该领域人工智能(AI)相关研究提供参考。方法:使用Web of Science数据库检索截至2024年6月的XAI相关文献,并利用Bibliometrix、VOSviewer和Citespace进行文献分析与可视化。结果:最终纳入1174篇XAI文献。自2018年起,该领域发文量显著增加,美国和中国是主要的研究产出和合作国家。研究形成了6本核心期刊和243位核心作者。关键词分析结果显示,XAI研究涉及临床诊断模型、机器学习、影像组学、神经网络和深度学习等领域。2022年后,研究主题变得多样化,卷积神经网络的可解释性成为热点。结论:影像医学与核医学领域对XAI的关注日益上升,取得了一定成果。然而,AI研究与XAI研究之间仍存在不平衡。 展开更多
关键词 可解释人工智能 人工智能 机器学习 深度学习 影像组学 文献计量学
在线阅读 下载PDF
人工智能在医学影像分析中的虚假解释问题研究
15
作者 贾玮晗 曾洙 《医学与哲学》 北大核心 2025年第13期7-11,共5页
深度学习模型目前已成为医学影像领域的重要技术手段,但其普遍面临决策过程不透明的问题,进而引发了在实际应用中关于信任与可解释性的挑战。为应对这一问题,可解释人工智能技术被引入医学影像分析领域。尽管展现出一定的应用潜力,该技... 深度学习模型目前已成为医学影像领域的重要技术手段,但其普遍面临决策过程不透明的问题,进而引发了在实际应用中关于信任与可解释性的挑战。为应对这一问题,可解释人工智能技术被引入医学影像分析领域。尽管展现出一定的应用潜力,该技术却在实践中引发了诸多伦理风险,其中虚假解释又导致患者隐私、数据安全及医疗决策权归属等方面的问题。通过对以显著图为代表的可解释人工智能在医学影像中应用的分析,论述了虚假解释的根源,并尝试提出相应的化解路径,以推动可解释人工智能技术在医学领域中的负责任与可持续发展。 展开更多
关键词 医学影像分析 可解释人工智能 虚假解释
在线阅读 下载PDF
气候公平性视角下城市洪涝风险的多维驱动机制
16
作者 徐浩文 周士奇 +1 位作者 耿汐雯 徐小东 《上海城市规划》 北大核心 2025年第2期51-59,共9页
随着极端降雨事件频发,城市洪涝已成为高密度城市面临的重大挑战。以粤港澳大湾区为研究对象,构建“危害—暴露—脆弱性”框架,综合多源数据开展洪涝风险评估与资源公平性分析。采用贝叶斯优化的Light GBM-SHAP方法,揭示关键致灾因子的... 随着极端降雨事件频发,城市洪涝已成为高密度城市面临的重大挑战。以粤港澳大湾区为研究对象,构建“危害—暴露—脆弱性”框架,综合多源数据开展洪涝风险评估与资源公平性分析。采用贝叶斯优化的Light GBM-SHAP方法,揭示关键致灾因子的变化机制;并通过Dagum基尼系数与洛伦兹曲线评估防洪安全资源的空间分配不均。结果显示:洪涝风险呈现沿海向内陆递减格局,高风险区集中于核心城市与河网密集区;安全资源存在显著空间不平衡,新兴区域的规划割裂与基础设施孤岛化加剧风险暴露;关键致灾因子随风险等级升高从地形—物理因素逐步转向水文—生态因素;不透水地表率、植被覆盖率是影响洪涝总体风险的核心变量。融合风险机制解析与公平性量化评估,以期为气候适应性城市规划提供科学支撑与政策依据。 展开更多
关键词 城市洪涝 风险测度框架 可解释人工智能 空间公平性 适应性策略
在线阅读 下载PDF
基于Shapley加法解释算法的基酒近红外快速检测
17
作者 张贵宇 张磊 +3 位作者 庹先国 王怡博 向星睿 严俊 《光谱学与光谱分析》 北大核心 2025年第8期2393-2400,共8页
当前在白酒的摘酒工艺中对基酒等级的划分主要是采用感官评判为主的方式,该技术存在检测效率低,易受主观因素影响等问题。于是将近红外光谱技术用于基酒等级检测,并探讨可解释人工智能算法中Shapley加法解释算法(SHAP)用于选择特征光谱... 当前在白酒的摘酒工艺中对基酒等级的划分主要是采用感官评判为主的方式,该技术存在检测效率低,易受主观因素影响等问题。于是将近红外光谱技术用于基酒等级检测,并探讨可解释人工智能算法中Shapley加法解释算法(SHAP)用于选择特征光谱点的可行性。结果特征数为36时,轻量梯度提升机(LightGBM)预测模型准确率为97.08%。为进一步提高模型性能,提出区间偏最小二乘(iPLS)结合SHAP的混合策略,结果当特征数为9时,LightGBM模型达到99.27%的准确率。iPLS区间划分与SHAP贡献值的空间分布分析表明:SHAP贡献值排名并不严格等于预测性能排名,合理设计特征选择策略后可提高模型性能。 展开更多
关键词 基酒 近红外光谱 特征选择 可解释人工智能算法
在线阅读 下载PDF
基于生成式人工智能的事后解释型推荐模型研究
18
作者 李伟卿 王伟军 +2 位作者 黄英辉 黄炜 张瑞 《情报学报》 北大核心 2025年第9期1114-1127,共14页
本文提出一种基于生成式人工智能(generative artificial intelligence,GenAI)的事后解释型推荐模型,并将消费价值观理论应用于推荐系统中,在提升推荐效果的同时,为用户生成个性化的文字解释。首先,采用GenAI提示工程方法,评估商品评论... 本文提出一种基于生成式人工智能(generative artificial intelligence,GenAI)的事后解释型推荐模型,并将消费价值观理论应用于推荐系统中,在提升推荐效果的同时,为用户生成个性化的文字解释。首先,采用GenAI提示工程方法,评估商品评论中体现的细粒度消费价值观倾向,包括功能性价值、象征性价值、经济性价值和情感性价值。其次,以此构建用户-项目(价值观)-偏好的交互矩阵,并实现基于用户价值观的推荐模型。最后,将推荐结果及相关用户和项目的消费价值观倾向得分输入基于GenAI的解释机器人中,生成推荐解释。研究结果表明,基于GenAI的打分机器人在准确率、一致性和差异性方面表现良好,可有效评估消费价值观倾向,为推荐模型和解释系统提供重要支持。本文提出的推荐模型通过融合消费价值观显著提升了推荐结果的准确率和多样性,并在冷启动和数据稀疏性场景下表现优异,为解决推荐系统的“信息茧房”和过度特化问题提供了思路。此外,基于GenAI的解释机器人生成的推荐解释语句流畅且多样化,能够有效揭示推荐机制与价值观倾向,相较于传统方法,其更为灵活、高效且个性化,为提升推荐系统的透明性和用户信任度提供了新路径。 展开更多
关键词 可解释推荐 消费价值观 事后解释 生成式人工智能 GPT
在线阅读 下载PDF
可解释人工智能在电力系统中的应用综述与展望 被引量:35
19
作者 王小君 窦嘉铭 +3 位作者 刘曌 刘畅宇 蒲天骄 和敬涵 《电力系统自动化》 EI CSCD 北大核心 2024年第4期169-191,共23页
可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中... 可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中梳理了电力系统XAI的历史脉络、发展需求及热点技术,总结了XAI在源荷预测、运行控制、故障诊断、电力市场等方面的电力应用,并围绕解释含义、迭代框架、数模融合等方面展望了电力系统XAI的应用前景,可为推动电力系统智能化转型与人机交互迭代提供理论参考与实践思路。 展开更多
关键词 电力系统 人工智能 可解释性 机器学习
在线阅读 下载PDF
大模型的逻辑增强与人工智能驱动的行业创新 被引量:4
20
作者 陈小平 《技术经济》 CSSCI 北大核心 2024年第12期1-9,共9页
本文探讨通过大模型等人工智能技术推动制造业创新发展的重大意义,以及面临的挑战和机遇。分析大模型技术体系的构成,阐释其工程学基本概念,介绍关联度预测的一种科学解释——类L C理论。基于该理论,分析大模型的奇异表现的深层原因与... 本文探讨通过大模型等人工智能技术推动制造业创新发展的重大意义,以及面临的挑战和机遇。分析大模型技术体系的构成,阐释其工程学基本概念,介绍关联度预测的一种科学解释——类L C理论。基于该理论,分析大模型的奇异表现的深层原因与重要后果,形成对大模型技术更全面、更深入的理解。在此基础上,梳理制造业细分行业对人工智能技术的三项基本要求——专业性、逻辑可靠性和知识能力;分析大模型技术与人工智能强力法技术相集成的核心难点;提出构建行业人工智能系统的封闭化方案,由该方案构建的行业人工智能系统满足三项基本要求,并具有可解释性和可控性。最后,简要讨论制造业高质量发展中从“新技术的行业应用”向“新技术驱动的行业创新”转变的新趋势。 展开更多
关键词 大模型 人工智能 可解释性 制造业 行业人工智能 行业创新
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部