期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于多通道单回归的太平洋长鳍金枪鱼渔场预测模型与可解释性研究
1
作者 赵诣 袁红春 《水生生物学报》 北大核心 2025年第3期13-25,共13页
为提高太平洋长鳍金枪鱼渔场预报准确率,探索深度学习及可解释性方法在长鳍金枪鱼渔场预报领域中的应用,采用太平洋区域(120°E—80°W、45°S—45°N)2000—2021年长鳍金枪鱼延绳钓渔业数据,选取了月份、经纬度、海洋... 为提高太平洋长鳍金枪鱼渔场预报准确率,探索深度学习及可解释性方法在长鳍金枪鱼渔场预报领域中的应用,采用太平洋区域(120°E—80°W、45°S—45°N)2000—2021年长鳍金枪鱼延绳钓渔业数据,选取了月份、经纬度、海洋温度、海洋盐度、叶绿素浓度、混合层深度等16种原始特征数据,涉及标量、向量、矩阵和张量,通过组织残差结构的卷积神经网络和全连接神经网络,构建了一种新型多通道单回归深度学习模型。该模型能同时使用不同大小不同分辨率的数据,利用卷积运算的强大适应能力提取各类环境因子的潜在特征并进行融合完成预测任务。同时引入SHAP(SHapleyAdditiveexPlanation)可解释方法对样本各个参数贡献度进行分析,沿不同维度累加SHAP值挖掘环境因子与渔获量间的内在关系,为科学分析提供实用的分析方法。结果表明,本模型能通过海量异构数据正确学习特征因子与长鳍金枪鱼渔场位置和渔获量间的相关关系,与其他渔场预测模型(随机森林、XGBOOST、广义加性模型、支持向量机、长短期记忆网络和BP模型)相比,该模型的均方误差、均方根误差和平均绝对误差最低,分别为0.00322、0.0567和0.272,较其他模型相比降低了3.9%—82.6%。该研究模型可以有效适应异构数据输入,完成端到端的学习任务。同时,通过对SHAP值的多维度分析也证明了渔获量分布与许多环境因子具有高度相关性,包括海洋温度、海洋盐度、混合层深度和海面异常高度。除此之外,可解释性方法还揭示了溶解铁对长鳍金枪鱼渔获量的相关关系。可解释性深度学习可以作为一种新的特征因子研究方法应用在环境因子与生物习性的相关性研究领域中,为传统生物学特征研究提供新的研究思路。 展开更多
关键词 渔场预测 深度学习 卷积神经网络 可解释性人工智能 太平洋 长鳍金枪鱼
在线阅读 下载PDF
强化学习可解释性基础问题探索和方法综述 被引量:21
2
作者 刘潇 刘书洋 +1 位作者 庄韫恺 高阳 《软件学报》 EI CSCD 北大核心 2023年第5期2300-2316,共17页
强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法.然而,作为一类机器学习算法,强化学习也面临着机器学习领域的公共难题,即难以被人理解.缺乏可解释性限制了强化学习在安全敏感领域中的应用,如... 强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法.然而,作为一类机器学习算法,强化学习也面临着机器学习领域的公共难题,即难以被人理解.缺乏可解释性限制了强化学习在安全敏感领域中的应用,如医疗、驾驶等,并导致强化学习在环境仿真、任务泛化等问题中缺乏普遍适用的解决方案.为了克服强化学习的这一弱点,涌现了大量强化学习可解释性(explainable reinforcement learning,XRL)的研究.然而,学术界对XRL尚缺乏一致认识.因此,探索XRL的基础性问题,并对现有工作进行综述.具体而言,首先探讨父问题——人工智能可解释性,对人工智能可解释性的已有定义进行了汇总;其次,构建一套可解释性领域的理论体系,从而描述XRL与人工智能可解释性的共同问题,包括界定智能算法和机械算法、定义解释的含义、讨论影响可解释性的因素、划分解释的直观性;然后,根据强化学习本身的特征,定义XRL的3个独有问题,即环境解释、任务解释、策略解释;之后,对现有方法进行系统地归类,并对XRL的最新进展进行综述;最后,展望XRL领域的潜在研究方向. 展开更多
关键词 强化学习可解释性(XRL) 人工智能可解释性(XAI) 机器学习(ML) 人工智能(AI)
在线阅读 下载PDF
人-无人车交互中的可解释性交互研究 被引量:2
3
作者 郭炜炜 王琦 《包装工程》 CAS 北大核心 2020年第18期22-28,共7页
目的随着现代人工智能技术在自动驾驶系统中的广泛应用,其可解释性问题日益凸显,为此探讨人-无人车交互过程中的可解释性交互的框架以及设计要素等问题,以增强自动驾驶系统的决策透明性、安全性和用户信任度。方法结合可解释人工智能和... 目的随着现代人工智能技术在自动驾驶系统中的广泛应用,其可解释性问题日益凸显,为此探讨人-无人车交互过程中的可解释性交互的框架以及设计要素等问题,以增强自动驾驶系统的决策透明性、安全性和用户信任度。方法结合可解释人工智能和人机交互的基本理论与方法,本文首先介绍了可解释性人工智能,对当前可解释内容的提取方法进行总结,然后以人-机器人交互的透明度模型为基础,建立人-无人车交互中可解释性交互的框架。最后从解释的对象、方式和评价等多个设计维度对可解释性的交互设计问题进行探讨,并结合案例进行分析。结论可解释性作为人与模型决策之间的接口,不仅仅是一个人工智能技术问题,而且与人密切相关,涉及到人-无人车交互中的多个层次。本文提出人-无人车交互中可解释性交互的框架,得出在人-无人车交互每个阶段需要的解释内容以及可解释交互设计的要素。 展开更多
关键词 人车共驾 人-无人车交互 可解释性人工智能 透明度
在线阅读 下载PDF
基于图神经网络的切片级漏洞检测及解释方法 被引量:27
4
作者 胡雨涛 王溯远 +3 位作者 吴月明 邹德清 李文科 金海 《软件学报》 EI CSCD 北大核心 2023年第6期2543-2561,共19页
随着软件的复杂程度越来越高,对漏洞检测的研究需求也日益增大.软件漏洞的迅速发现和修补,可以将漏洞带来的损失降到最低.基于深度学习的漏洞检测方法作为目前新兴的检测手段,可以从漏洞代码中自动学习其隐含的漏洞模式,节省了大量人力... 随着软件的复杂程度越来越高,对漏洞检测的研究需求也日益增大.软件漏洞的迅速发现和修补,可以将漏洞带来的损失降到最低.基于深度学习的漏洞检测方法作为目前新兴的检测手段,可以从漏洞代码中自动学习其隐含的漏洞模式,节省了大量人力投入.但基于深度学习的漏洞检测方法尚未完善,其中,函数级别的检测方法存在检测粒度较粗且检测准确率较低的问题,切片级别的检测方法虽然能够有效减少样本噪声,但仍存在以下两方面的问题:一方面,现有方法大多采用人工漏洞数据集进行实验,因此其在真实环境中的漏洞检测能力仍然存疑;另一方面,相关工作仅致力于检测出切片样本是否存在漏洞,而缺乏对检测结果可解释性的考虑.针对上述问题,提出基于图神经网络的切片级漏洞检测及解释方法.该方法首先对C/C++源代码进行规范化并提取切片,以减少样本冗余信息干扰;之后,采用图神经网络模型进行切片嵌入得到其向量表征,以保留源代码的结构信息和漏洞特征;然后,将切片的向量表征输入漏洞检测模型进行训练和预测;最后,将训练完成的漏洞检测模型和待解释的漏洞切片输入漏洞解释器,得到具体的漏洞代码行.实验结果显示:在漏洞检测方面,该方法对于真实漏洞数据的检测F1分数达到75.1%,相较于对比方法提升了41.2%-110.4%;在漏洞解释方面,该方法在限定前10%的关键节点时,准确率可达73.6%,相较于两种对比解释器分别提升了8.9%和24.9%,且时间开销分别缩短了42.5%和15.4%.最后,该方法正确检测并解释了4个开源软件中59个真实漏洞,证明了其在现实世界漏洞发掘方面的实用性. 展开更多
关键词 漏洞检测 深度学习 图神经网络 人工智能可解释性
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部