期刊文献+
共找到166篇文章
< 1 2 9 >
每页显示 20 50 100
人工智能可解释的制度建构 被引量:4
1
作者 周辉 《山东师范大学学报(社会科学版)》 北大核心 2025年第1期94-106,共13页
可解释是建立人工智能系统信任的关键要素之一,如何实现人工智能系统可解释,提升系统在不同场景下的可解释性,已随人工智能技术的发展而日渐受到关注。人工智能可解释性的实现面临必要性质疑和可行性困境,需要在明确人工智能可解释制度... 可解释是建立人工智能系统信任的关键要素之一,如何实现人工智能系统可解释,提升系统在不同场景下的可解释性,已随人工智能技术的发展而日渐受到关注。人工智能可解释性的实现面临必要性质疑和可行性困境,需要在明确人工智能可解释制度效能的基础上,突破设定解释义务的单一路径,进行体系化、层次化、动态化的制度建构。在人工智能立法中嵌入人工智能可解释的基本原则,应当区分监管模式、使用者模式、专业模式下的可解释性义务要求,并建立对解释进行评估监管的具体方案,以促进人工智能可解释的实现,迈向可监管、可维权、可创新的人工智能。 展开更多
关键词 可解释 人工智能 算法解释 制度建构
在线阅读 下载PDF
以“智能”增“效能”:生成式人工智能对党内法规解释的深度赋能与路径优化 被引量:2
2
作者 张亚勇 《中共天津市委党校学报》 北大核心 2025年第2期3-12,共10页
生成式人工智能基于语义空间重构与知识图谱嵌入技术,系统破解了传统党内法规解释中存在的碎片化、随意性、滞后性等问题,在提升解释效率、增强解释权威、拓展解释空间等维度实现解释效能跃升。其深度赋能过程面临数据安全风险消解制度... 生成式人工智能基于语义空间重构与知识图谱嵌入技术,系统破解了传统党内法规解释中存在的碎片化、随意性、滞后性等问题,在提升解释效率、增强解释权威、拓展解释空间等维度实现解释效能跃升。其深度赋能过程面临数据安全风险消解制度解释的权威性、算法自主性削弱制度解释的准确性、伦理和权责异化冲击制度解释的严肃性三重逻辑困境,对维护制度权威带来风险挑战。以智能技术增益制度解释效能,打造技术自主可控、算法透明可信、数据安全可靠的技术支撑体系,创建基于责任锚定与程序规训的人机协同机制,建立制度刚性约束与价值柔性引导相协同的治理框架,为智能时代依规治党提供理论与实践支撑。 展开更多
关键词 生成式人工智能 党内法规解释 深度赋能 风险挑战 协同赋能
在线阅读 下载PDF
基于新型中医人工智能可解释推理模型的眩晕辨证诊断
3
作者 江启煜 孙晓生 罗晓牧 《中华中医药学刊》 北大核心 2025年第5期21-27,I0004-I0007,共11页
目的创新性地提出了一种能够直观利用中医诊断学知识推理的智能辨证模型以及零临床样本机器学习训练方法,并以眩晕病辨证进行实例分析。方法在基于Transformer的双向编码器(Bidirectional encoder representations from transformers,Be... 目的创新性地提出了一种能够直观利用中医诊断学知识推理的智能辨证模型以及零临床样本机器学习训练方法,并以眩晕病辨证进行实例分析。方法在基于Transformer的双向编码器(Bidirectional encoder representations from transformers,Bert)深度学习大语言模型的基础上提出新的推理算法,以建立新型智能诊断推理模型。根据《中医内科学》眩晕病肝阳上亢、气血亏虚等6种证型的辨证要点,通过随机函数生成每类证型各400例辨证样本句子序列,直接让模型学习诊断学知识。以5折交叉法对新模型和随机森林模型进行预测对比,以准确率(Accuracy)、F1值(F1-score)、受试者工作特征曲线(Receiver operating characteristic curve,ROC曲线)、精确率-召回率曲线(Precision-recall curve,P-R曲线)等指标评价模型对各种证型的预测性能。同时通过新模型自动输出的辨证推理图直观展示算法对中医辨证思维的模拟推理过程,根据模型推理过程中产生的症状和概率组合数据,计算并绘制证型-概率密度分布图、症状-证型关联聚类热图、证型-证型Pearson相关性分析图,进一步验证辨证结果的可靠性。结果新模型使用5折交叉法测试的平均总体Accuracy以及F1值分别为0.990和0.971,在所有证型中肝肾阴虚的Accuracy(0.975)以及F1值(0.923)最低。ROC曲线和P-R曲线显示新模型预测能力较差的是肝肾阴虚证和肝阳上亢证,而随机森林预测能力较差的是气血亏虚证。证型-概率密度分布图、症状-证型关联聚类热图的数据分布与新模型的推理结论相符,证型-证型Pearson相关性图显示模型所诊断的主证型与其余证型负相关且相关系数的P值小于0.01,表明模型推理过程中对证型的区分性良好。结论基于新型中医智能诊断推理模型,能够进行眩晕智能辨证并根据中医辨证思维展示推理过程,可能有助于解决当前中医人工智能诊断领域的瓶颈难题。 展开更多
关键词 人工智能 可解释 眩晕 辨证 中医诊断 推理 深度学习 大语言模型 中医 大模型
在线阅读 下载PDF
人工智能地震资料处理与解释方法研究进展
4
作者 刘洋 孙宇航 +3 位作者 张浩然 田文彬 陈桂 马江涛 《石油地球物理勘探》 北大核心 2025年第4期1067-1087,共21页
随着油气勘探目标日益复杂,地震勘探面临着地震资料信噪比低、分辨率低、速度建模和成像困难等难题,常规地震资料处理与解释方法应用于海量地震数据时,其精度或效率存在一定的局限性。基于人工智能的地震资料处理与解释方法可以有效提... 随着油气勘探目标日益复杂,地震勘探面临着地震资料信噪比低、分辨率低、速度建模和成像困难等难题,常规地震资料处理与解释方法应用于海量地震数据时,其精度或效率存在一定的局限性。基于人工智能的地震资料处理与解释方法可以有效提高精度和效率。为此,概述了监督、半监督和无监督深度学习技术,总结了深度学习在初至拾取、提高信噪比、数据重建、速度谱解释、偏移和提高分辨率等资料处理方面的应用,在断层、地震相、河道和盐丘等地质体识别方面的应用,以及在波阻抗反演、AVO反演、全波形反演、岩性识别、储层参数预测和流体识别等方面的应用;讨论了训练集的制作、神经网络的优选、训练策略和大模型等;最后展望了地震资料智能处理与解释方法的发展趋势,指出需要继续提高网络的泛化性,需要研究适合地震勘探的大模型。 展开更多
关键词 地震资料处理 地震资料解释 人工智能 深度学习
在线阅读 下载PDF
可解释人工智能城市设计:从科学问题到方法建构
5
作者 杨俊宴 《城市规划》 北大核心 2025年第7期29-41,共13页
智能城市设计的形成与新一代技术革命有深切的关系,在ChatGPT、DeepSeek等通用智能大模型技术影响下,城市设计发展面临新的机遇与挑战,进入到可解释智能设计生成的核心技术圈层。本文阐述了大科学时代城市设计领域的最新发展,凝练了国... 智能城市设计的形成与新一代技术革命有深切的关系,在ChatGPT、DeepSeek等通用智能大模型技术影响下,城市设计发展面临新的机遇与挑战,进入到可解释智能设计生成的核心技术圈层。本文阐述了大科学时代城市设计领域的最新发展,凝练了国际智能城市设计研究的四种学术流派,诠释了复杂城市形态巨系统的建构机理、城市形态的先验—循证双通道智能设计生成逻辑、工程级的可解释智能城市设计和迭代优化过程等科学问题,提出未来城市设计科学的转型提升方向,并建构可解释人工智能城市设计的工作框架,提出全球城市矢量三维形态自学习、刚性行业规范与柔性专业知识结合的约束生成、人机交互修正的空间形态对抗迭代优化等核心方法。在此基础上,提出未来人工智能城市设计的内核式理论体系与交叉研究前沿发展趋势。 展开更多
关键词 可解释人工智能 城市设计 生成式设计
在线阅读 下载PDF
医学人工智能可解释性的伦理接受度问题探讨
6
作者 吕雪梅 邓蕊 《医学与哲学》 北大核心 2025年第13期1-6,共6页
医学人工智能提升诊疗效率和准确性的同时,伴随“黑箱”难以解释的问题。医学人工智能的可解释性与可解释的医学人工智能已是学界焦点。可解释性是实现负责任应用人工智能的伦理要求,应在尊重患者利益与自主性的前提下,多元主体协同实... 医学人工智能提升诊疗效率和准确性的同时,伴随“黑箱”难以解释的问题。医学人工智能的可解释性与可解释的医学人工智能已是学界焦点。可解释性是实现负责任应用人工智能的伦理要求,应在尊重患者利益与自主性的前提下,多元主体协同实现“黑箱”人工智能模型在可控范围内造福医疗实践。提出“伦理接受度”概念,评析学界关于医学人工智能可解释性的论辩,分析伦理接受度的核心内容,构建动态模型以识别不同情境的接受问题,提出最低解释义务、风险责任对等与协商共建机制的底线原则,促进情境式混合解释框架搭建。 展开更多
关键词 医学人工智能 可解释 伦理接受度
在线阅读 下载PDF
人工智能“可解释性”的两个维度及其适用 被引量:3
7
作者 郑飞 朱溯蓉 《大连理工大学学报(社会科学版)》 北大核心 2025年第2期80-87,共8页
为应对人工智能技术带来的伦理、道德风险,各行各业已围绕该话题展开了大量讨论。其中,人工智能系统的可解释性一直是该争论的“焦点”。虽然关于“可解释性”的研究已不胜枚举,但究竟何为“可解释性”尚未明晰。模棱两可的“可解释性... 为应对人工智能技术带来的伦理、道德风险,各行各业已围绕该话题展开了大量讨论。其中,人工智能系统的可解释性一直是该争论的“焦点”。虽然关于“可解释性”的研究已不胜枚举,但究竟何为“可解释性”尚未明晰。模棱两可的“可解释性”很容易造成归责功能性丧失,难以解决实际纠纷。在明确可解释性的重要性和内在结构的基础上,将其类型化为面向用户的“可解释性”与面向隐藏层的“可解释性”。这两个维度的“可解释性”分工负责、互相配合:面向用户的“可解释性”为透明、归责提供标准;面向隐藏层的“可解释性”作为实现透明度、确保问责的手段,共同保障人工智能系统安全、可靠、可控的发展。 展开更多
关键词 人工智能 可解释 透明度 责任
在线阅读 下载PDF
基于可解释人工智能的流量对抗样本攻击及防御方法
8
作者 马博文 郭渊博 +2 位作者 田继伟 马骏 胡永进 《通信学报》 北大核心 2025年第4期160-173,共14页
针对基于人工智能的网络入侵检测系统,提出了一种基于可解释人工智能(XAI)的对抗样本攻击方法。利用XAI方法识别关键扰动特征,在保持流量功能时逐步进行针对性扰动,直至恶意流量被判定为良性,实现对抗流量样本攻击。这种方法可以大幅减... 针对基于人工智能的网络入侵检测系统,提出了一种基于可解释人工智能(XAI)的对抗样本攻击方法。利用XAI方法识别关键扰动特征,在保持流量功能时逐步进行针对性扰动,直至恶意流量被判定为良性,实现对抗流量样本攻击。这种方法可以大幅减少扰动特征,增强了攻击隐蔽性,而且其所识别的关键特征对不同分类器具有一致性,使得攻击样本具有较强的迁移性。在防御方面,提出了一种基于对抗训练的防御方法,以提升网络入侵检测系统的鲁棒性。实验结果表明,所提攻击方法具有较高的攻击成功率和迁移成功率;所提防御方法可以有效降低对抗样本攻击的成功率,增强了系统的鲁棒性。 展开更多
关键词 对抗样本攻击 可解释人工智能 网络入侵检测 恶意对抗流量
在线阅读 下载PDF
人工智能的心灵哲学解释与价值规范
9
作者 顾肃 《社会科学辑刊》 北大核心 2025年第3期49-56,F0002,237,共10页
人工智能的迅速发展促使人们从认知理论和思维科学的视角对其本质和研究进路进行哲学解释和阐发。图灵主义理论从运作的实际效果看待人与机器思维之间的关联性。符号主义的进路和联结主义的进路从不同的角度概括人工智能的主要研究机制... 人工智能的迅速发展促使人们从认知理论和思维科学的视角对其本质和研究进路进行哲学解释和阐发。图灵主义理论从运作的实际效果看待人与机器思维之间的关联性。符号主义的进路和联结主义的进路从不同的角度概括人工智能的主要研究机制。塞尔关于人工智能的哲学观则试图否认强人工智能的可能性,但也有人持与此不同的观点,他们基本支持图灵主义的思路。人工智能的发展和利用需要尊重政治哲学中的平等、公正和权利观念,不得在人们之间制造偏见和歧视。操作人工智能系统需要遵守技术伦理规范,人们利用大数据操作导航、搜索引擎、视频监控、智能识别和动态识别,收集个人全面的行动信息都必须尊重个人隐私,确保安全可靠。严格防范和惩治利用图像、音视频仿真等深度伪造技术进行欺诈,加强监管利用人工智能创造出来的新的DNA聚合物、电脑病毒等产品。生成式人工智能需要尊重知识产权,对于具有很强自主学习和选择能力的通用人工智能更需要设置严格的人文价值规范,应遵循以人为本的原则,维护人的整体利益,不得伤害人也不得在人受到伤害时不予救助。 展开更多
关键词 人工智能 心灵哲学解释 价值规范
在线阅读 下载PDF
物联网应用中的可解释人工智能研究综述
10
作者 赵小阳 许新征 李仲年 《计算机应用》 北大核心 2025年第7期2169-2179,共11页
在物联网(IoT)时代,人工智能(AI)与IoT的结合已经成为推动技术发展和应用创新的重要趋势。随着设备连接数量的指数级增长,提升终端用户对智能系统的信任度变得尤为关键。可解释人工智能(XAI)指能提供它们的决策过程和结果解释的AI系统。... 在物联网(IoT)时代,人工智能(AI)与IoT的结合已经成为推动技术发展和应用创新的重要趋势。随着设备连接数量的指数级增长,提升终端用户对智能系统的信任度变得尤为关键。可解释人工智能(XAI)指能提供它们的决策过程和结果解释的AI系统。XAI的出现推动了AI技术的发展,并增强了用户对AI系统的信任。因此,对IoT应用中的XAI研究进行综述。首先,介绍IoT和XAI的相关背景及意义;其次,介绍XAI的定义及关键技术;接着,介绍传统AI驱动的IoT应用的最新进展和XAI驱动的IoT应用的最新进展;最后,对XAI在IoT应用中的未来发展方向和相关挑战分别进行总结和展望。 展开更多
关键词 可解释人工智能 深度学习 物联网 智慧医疗 智慧工业 智慧城市
在线阅读 下载PDF
基于生成式人工智能的事后解释型推荐模型研究
11
作者 李伟卿 王伟军 +2 位作者 黄英辉 黄炜 张瑞 《情报学报》 北大核心 2025年第9期1114-1127,共14页
本文提出一种基于生成式人工智能(generative artificial intelligence,GenAI)的事后解释型推荐模型,并将消费价值观理论应用于推荐系统中,在提升推荐效果的同时,为用户生成个性化的文字解释。首先,采用GenAI提示工程方法,评估商品评论... 本文提出一种基于生成式人工智能(generative artificial intelligence,GenAI)的事后解释型推荐模型,并将消费价值观理论应用于推荐系统中,在提升推荐效果的同时,为用户生成个性化的文字解释。首先,采用GenAI提示工程方法,评估商品评论中体现的细粒度消费价值观倾向,包括功能性价值、象征性价值、经济性价值和情感性价值。其次,以此构建用户-项目(价值观)-偏好的交互矩阵,并实现基于用户价值观的推荐模型。最后,将推荐结果及相关用户和项目的消费价值观倾向得分输入基于GenAI的解释机器人中,生成推荐解释。研究结果表明,基于GenAI的打分机器人在准确率、一致性和差异性方面表现良好,可有效评估消费价值观倾向,为推荐模型和解释系统提供重要支持。本文提出的推荐模型通过融合消费价值观显著提升了推荐结果的准确率和多样性,并在冷启动和数据稀疏性场景下表现优异,为解决推荐系统的“信息茧房”和过度特化问题提供了思路。此外,基于GenAI的解释机器人生成的推荐解释语句流畅且多样化,能够有效揭示推荐机制与价值观倾向,相较于传统方法,其更为灵活、高效且个性化,为提升推荐系统的透明性和用户信任度提供了新路径。 展开更多
关键词 可解释推荐 消费价值观 事后解释 生成式人工智能 GPT
在线阅读 下载PDF
人工智能在医学影像分析中的虚假解释问题研究
12
作者 贾玮晗 曾洙 《医学与哲学》 北大核心 2025年第13期7-11,共5页
深度学习模型目前已成为医学影像领域的重要技术手段,但其普遍面临决策过程不透明的问题,进而引发了在实际应用中关于信任与可解释性的挑战。为应对这一问题,可解释人工智能技术被引入医学影像分析领域。尽管展现出一定的应用潜力,该技... 深度学习模型目前已成为医学影像领域的重要技术手段,但其普遍面临决策过程不透明的问题,进而引发了在实际应用中关于信任与可解释性的挑战。为应对这一问题,可解释人工智能技术被引入医学影像分析领域。尽管展现出一定的应用潜力,该技术却在实践中引发了诸多伦理风险,其中虚假解释又导致患者隐私、数据安全及医疗决策权归属等方面的问题。通过对以显著图为代表的可解释人工智能在医学影像中应用的分析,论述了虚假解释的根源,并尝试提出相应的化解路径,以推动可解释人工智能技术在医学领域中的负责任与可持续发展。 展开更多
关键词 医学影像分析 可解释人工智能 虚假解释
在线阅读 下载PDF
影像医学与核医学可解释人工智能的文献计量研究
13
作者 舒培州 左仟岭 +3 位作者 高海洋 汪子悦 施洪鑫 陈翼 《放射学实践》 北大核心 2025年第9期1166-1172,共7页
目的:通过文献计量学方法,分析影像医学与核医学领域可解释人工智能(XAI)的研究现状和趋势,为该领域人工智能(AI)相关研究提供参考。方法:使用Web of Science数据库检索截至2024年6月的XAI相关文献,并利用Bibliometrix、VOSviewer和Cite... 目的:通过文献计量学方法,分析影像医学与核医学领域可解释人工智能(XAI)的研究现状和趋势,为该领域人工智能(AI)相关研究提供参考。方法:使用Web of Science数据库检索截至2024年6月的XAI相关文献,并利用Bibliometrix、VOSviewer和Citespace进行文献分析与可视化。结果:最终纳入1174篇XAI文献。自2018年起,该领域发文量显著增加,美国和中国是主要的研究产出和合作国家。研究形成了6本核心期刊和243位核心作者。关键词分析结果显示,XAI研究涉及临床诊断模型、机器学习、影像组学、神经网络和深度学习等领域。2022年后,研究主题变得多样化,卷积神经网络的可解释性成为热点。结论:影像医学与核医学领域对XAI的关注日益上升,取得了一定成果。然而,AI研究与XAI研究之间仍存在不平衡。 展开更多
关键词 可解释人工智能 人工智能 机器学习 深度学习 影像组学 文献计量学
在线阅读 下载PDF
一种可解释人工智能(XAI)在测量设备故障诊断和寿命预测中的应用 被引量:6
14
作者 陈长基 梁树华 +4 位作者 吴达雷 于秀丽 陈育培 吴孟科 顾婷婷 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第1期167-177,共11页
基于人工智能算法的变压器故障诊断和寿命预测模型在提高准确率方面已经达到了很好的效果,但是仍存在泛化性能较低,对数据质量要求过高,判断结果无法解释等问题.该文基于DBSO-CatBoost模型,提出一种可用于故障判断解释的变压器故障诊断... 基于人工智能算法的变压器故障诊断和寿命预测模型在提高准确率方面已经达到了很好的效果,但是仍存在泛化性能较低,对数据质量要求过高,判断结果无法解释等问题.该文基于DBSO-CatBoost模型,提出一种可用于故障判断解释的变压器故障诊断方法.该方法基于数据特征提取,采用差分变异头脑风暴优化(DBSD)算法对CatBoost模型进行优化和故障诊断.①对于数据预处理,引入比率法在原始数据中添加特征;采用基于可解释人工智能(XAI)的Shapley加法解释(SHAP)技术进行特征提取,并采用核主成分分析算法对数据进行降维.Shapley加法解释技术可根据特征贡献解码每个预测来帮助全局解释并评估预测结果.②将预处理后的数据输入到CatBoost模型中进行训练,并采用差分变异头脑风暴优化算法对CatBoost模型的参数进行优化,从而得到最优模型.③利用得到的优化模型诊断变压器故障并输出故障类型与预测结果.实验使用来自中国国家电网公司西北部某电网的真实数据评估该模型.结果表明:该文模型在不同故障诊断中的准确性最佳,平均准确率高达99.29%,证明该文方法可以有效提高电力变压器故障诊断的准确性和效率. 展开更多
关键词 可解释人工智能 故障诊断 寿命预测 机器学习 电力变压器
在线阅读 下载PDF
基于人工智能的CT影像组学在结核病诊断和治疗反应监测中应用的研究进展
15
作者 朱庆东 赵春艳 +2 位作者 谢周华 宋树林 宋畅 《中国防痨杂志》 北大核心 2025年第8期1068-1076,共9页
近年来,影像组学模型通过融合临床特征与深度学习技术,可有效区分肺结核与肺癌、非结核分枝杆菌肺病及社区获得性肺炎等,在肺结核鉴别诊断中表现优异,显著优于传统影像评估,尤其可为诊断困难、样本获取受限的肺外结核(如肠结核、淋巴结... 近年来,影像组学模型通过融合临床特征与深度学习技术,可有效区分肺结核与肺癌、非结核分枝杆菌肺病及社区获得性肺炎等,在肺结核鉴别诊断中表现优异,显著优于传统影像评估,尤其可为诊断困难、样本获取受限的肺外结核(如肠结核、淋巴结结核)提供强有力的无创诊断工具。其构建的多模态融合模型不仅在鉴别肠结核与克罗恩病、淋巴结结核与淋巴瘤等方面展现出较高的精度,还在耐药结核病的预测及治疗反应的动态监测中显示出重要的潜力,在结核病诊疗中展现出广阔前景。但受限于数据集质量参差不齐、模型泛化能力有限、临床验证不足等问题,影像组学模型在结核病诊疗中仍面临着严峻挑战。本文通过深入分析文献发现,系统综述了人工智能(artificial intelligence,AI)驱动的计算机断层扫描(computed tomography,CT)影像组学技术在结核病(含肺结核及肺外结核)诊断及治疗反应监测中的最新研究进展与应用价值,聚焦于多模态融合技术与临床落地场景的创新分析,为指引未来的研究方向、进一步推动其在结核病诊疗中的应用与发展、助力结核病精准医疗和防控工作提供借鉴。 展开更多
关键词 人工智能 放射摄影影像解释 计算机辅助 结核 诊断 计算机辅助 综述文献(主题)
在线阅读 下载PDF
可解释人工智能在电力系统中的应用综述与展望 被引量:32
16
作者 王小君 窦嘉铭 +3 位作者 刘曌 刘畅宇 蒲天骄 和敬涵 《电力系统自动化》 EI CSCD 北大核心 2024年第4期169-191,共23页
可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中... 可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中梳理了电力系统XAI的历史脉络、发展需求及热点技术,总结了XAI在源荷预测、运行控制、故障诊断、电力市场等方面的电力应用,并围绕解释含义、迭代框架、数模融合等方面展望了电力系统XAI的应用前景,可为推动电力系统智能化转型与人机交互迭代提供理论参考与实践思路。 展开更多
关键词 电力系统 人工智能 可解释 机器学习
在线阅读 下载PDF
可解释机器学习在油气领域人工智能中的研究进展与应用展望 被引量:6
17
作者 闵超 文国权 +2 位作者 李小刚 赵大志 李昆成 《天然气工业》 EI CAS CSCD 北大核心 2024年第9期114-126,共13页
人工智能作为战略性新兴产业及新质生产力正迅速地渗透入油气领域,并有望成为行业发展的新引擎和制高点。“黑盒”的机器学习模型缺乏透明度和可解释性,导致现有机器学习方法在油气领域的认可度和信任度不高,制约了以机器学习为核心的... 人工智能作为战略性新兴产业及新质生产力正迅速地渗透入油气领域,并有望成为行业发展的新引擎和制高点。“黑盒”的机器学习模型缺乏透明度和可解释性,导致现有机器学习方法在油气领域的认可度和信任度不高,制约了以机器学习为核心的人工智能在油气田中的融合和发展。为此,系统介绍了可解释机器学习方法在油气田勘探开发过程的研究现状,阐述了机器学习模型的可解释性是促进油气领域人工智能大规模应用的关键,以及事后可解释方法在油气机器学习方法上的局限性,并对技术的应用进行了展望。研究结果表明:(1)利用Shapley加性解释(SHAP)和模型无关局部解释(LIME)等事后可解释方法进行煤层气产能主控因素实例验证,指出了可解释的油气田特征指标还不足以完全指导可解释模型的构建和分析,需要基于本质可解释思路建立符合油气田勘探开发自身特点的本质可解释机器学习方法;(2)利用机理模型、因果推断和反事实解释等本质可解释方法,分析油气田数据和模型参数之间的因果关系,构建了本质可解释机器学习方法;(3)选取典型煤层气压裂数据进行产能预测实例验证,发现因果推断能有效挖掘地质参数、施工参数和产能之间的本质关系,且基于因果关系建立的机器学习模型可以实现预测泛化性能提升。结论认为,基于事后可解释和本质可解释机器学习方法不仅是未来油气领域人工智能发展的必然趋势,而且是解决人工智能在油气领域现场落地的“瓶颈”问题及关键技术。 展开更多
关键词 油气田勘探开发 人工智能 机器学习 可解释机器学习 事后可解释 本质可解释
在线阅读 下载PDF
基于可解释人工智能(XAI)的热带气旋直接经济损失评估研究
18
作者 刘淑贤 刘扬 +2 位作者 杨琨 张立生 张源达 《热带气象学报》 CSCD 北大核心 2024年第6期943-953,共11页
可解释人工智能(eXplainable Artificial Intelligence,XAI)已经成为人工智能研究领域的重要发展方向,该技术可以帮助解释模型如何做出预测和决策,在气象灾害评估领域具有较大应用价值。本研究旨在利用机器学习算法评估热带气旋(Tropica... 可解释人工智能(eXplainable Artificial Intelligence,XAI)已经成为人工智能研究领域的重要发展方向,该技术可以帮助解释模型如何做出预测和决策,在气象灾害评估领域具有较大应用价值。本研究旨在利用机器学习算法评估热带气旋(Tropical Cyclone,TC)的直接经济损失,并采用XAI方法SHAP(SHapley Additive exPlanations),从全局和局部层面分析特征因素对模型预测的影响和贡献。结果表明,随机森林(Random Forest,RF)模型在均方根误差、平均绝对误差和决定系数这三个评估指标中均优于LightGBM(Light Gradient Boosting Machine)模型,指标值分别达到了23.6、11.1和0.9。根据SHAP值,RF模型中最重要的三个因素分别是极大风速、最大日雨量和暴雨站点比例。具体而言,当样本的极大风速值大于45 m·s^(-1)、最大日雨量值超过250 mm以及暴雨站点比例高于30%时,往往对TC直接经济损失预测值产生较大的正贡献。该研究可以为决策者制定灾害风险管理策略提供有力的科学依据和理论支持。 展开更多
关键词 热带气旋 直接经济损失 机器学习 可解释人工智能 SHAP
在线阅读 下载PDF
发展可解释的人工智能:韧性视域下AIGC时代数字不平等的社会性构建与治理路径 被引量:7
19
作者 喻国明 滕文强 《当代传播》 CSSCI 北大核心 2024年第4期10-14,共5页
数字不平等是数字技术对原有社会结构及社会不平等的复制,数字技术的加入反而让不平等的问题更为复杂。媒介变迁逻辑下数字不平等的社会性构建也从传统媒体时代的尺度不平等转换为AIGC时代的效度不平等。AIGC时代,数字不平等的表现形式... 数字不平等是数字技术对原有社会结构及社会不平等的复制,数字技术的加入反而让不平等的问题更为复杂。媒介变迁逻辑下数字不平等的社会性构建也从传统媒体时代的尺度不平等转换为AIGC时代的效度不平等。AIGC时代,数字不平等的表现形式从早期的动机不平等、接入不平等为代表的“硬障碍”转向解释不充分、理解不平等、信任不平等的“软障碍”。解决数字不平等的问题并非简单的“技术平等”,更不是简单的技术普及问题。本文在韧性治理的视角下,认为通过提高AIGC技术自身的“解释性“”理解力”和“信任力”发展可解释的人工智能,进而增强社会系统的“适应力“”恢复力”和“可持续力”,协调技术发展与社会需求之间的一致性,实现数字不平等的柔性治理,标本兼治的为其长远发展施以社会性的建构。 展开更多
关键词 数字不平等 韧性 治理路径 可解释人工智能
在线阅读 下载PDF
人工智能应用于阿尔茨海默病影像诊断中的伦理审视 被引量:1
20
作者 闫佳佳 寇楠楠 《中国医学伦理学》 北大核心 2025年第2期179-186,共8页
阿尔茨海默病是一种进行性发展的致死性神经退行性疾病,其临床表现为逐渐进展的认知和记忆功能下降、语言和视空间障碍等,至今仍无法治愈和逆转。在临床中阿尔茨海默病通常面临确诊不及时的可能,给阿尔茨海默病的早期干预造成了困难,因... 阿尔茨海默病是一种进行性发展的致死性神经退行性疾病,其临床表现为逐渐进展的认知和记忆功能下降、语言和视空间障碍等,至今仍无法治愈和逆转。在临床中阿尔茨海默病通常面临确诊不及时的可能,给阿尔茨海默病的早期干预造成了困难,因此提高诊断效率,帮助患者尽早确诊阿尔茨海默病尤为重要。随着人工智能技术的不断发展,其在阿尔茨海默病影像诊断中的应用显示出巨大潜力,但同时伴随着诸多伦理问题。通过探讨人工智能在阿尔茨海默病影像诊断研究及应用中带来的数据安全、可解释性、算法歧视以及偶然发现的披露等伦理挑战,并提出相应对策,以期为人工智能应用于医学影像诊断提供一定伦理指引,保护研究参与者/患者的权益,推动技术的健康发展。 展开更多
关键词 人工智能 阿尔茨海默病 数据 算法 可解释 伦理审视
在线阅读 下载PDF
上一页 1 2 9 下一页 到第
使用帮助 返回顶部