期刊文献+
共找到63篇文章
< 1 2 4 >
每页显示 20 50 100
医学人工智能可解释性的伦理接受度问题探讨
1
作者 吕雪梅 邓蕊 《医学与哲学》 北大核心 2025年第13期1-6,共6页
医学人工智能提升诊疗效率和准确性的同时,伴随“黑箱”难以解释的问题。医学人工智能的可解释性与可解释的医学人工智能已是学界焦点。可解释性是实现负责任应用人工智能的伦理要求,应在尊重患者利益与自主性的前提下,多元主体协同实... 医学人工智能提升诊疗效率和准确性的同时,伴随“黑箱”难以解释的问题。医学人工智能的可解释性与可解释的医学人工智能已是学界焦点。可解释性是实现负责任应用人工智能的伦理要求,应在尊重患者利益与自主性的前提下,多元主体协同实现“黑箱”人工智能模型在可控范围内造福医疗实践。提出“伦理接受度”概念,评析学界关于医学人工智能可解释性的论辩,分析伦理接受度的核心内容,构建动态模型以识别不同情境的接受问题,提出最低解释义务、风险责任对等与协商共建机制的底线原则,促进情境式混合解释框架搭建。 展开更多
关键词 医学人工智能 可解释性 伦理接受度
在线阅读 下载PDF
人工智能“可解释性”的两个维度及其适用 被引量:3
2
作者 郑飞 朱溯蓉 《大连理工大学学报(社会科学版)》 北大核心 2025年第2期80-87,共8页
为应对人工智能技术带来的伦理、道德风险,各行各业已围绕该话题展开了大量讨论。其中,人工智能系统的可解释性一直是该争论的“焦点”。虽然关于“可解释性”的研究已不胜枚举,但究竟何为“可解释性”尚未明晰。模棱两可的“可解释性... 为应对人工智能技术带来的伦理、道德风险,各行各业已围绕该话题展开了大量讨论。其中,人工智能系统的可解释性一直是该争论的“焦点”。虽然关于“可解释性”的研究已不胜枚举,但究竟何为“可解释性”尚未明晰。模棱两可的“可解释性”很容易造成归责功能性丧失,难以解决实际纠纷。在明确可解释性的重要性和内在结构的基础上,将其类型化为面向用户的“可解释性”与面向隐藏层的“可解释性”。这两个维度的“可解释性”分工负责、互相配合:面向用户的“可解释性”为透明、归责提供标准;面向隐藏层的“可解释性”作为实现透明度、确保问责的手段,共同保障人工智能系统安全、可靠、可控的发展。 展开更多
关键词 人工智能 可解释性 透明度 责任
在线阅读 下载PDF
基于新型中医人工智能可解释推理模型的眩晕辨证诊断
3
作者 江启煜 孙晓生 罗晓牧 《中华中医药学刊》 北大核心 2025年第5期21-27,I0004-I0007,共11页
目的创新性地提出了一种能够直观利用中医诊断学知识推理的智能辨证模型以及零临床样本机器学习训练方法,并以眩晕病辨证进行实例分析。方法在基于Transformer的双向编码器(Bidirectional encoder representations from transformers,Be... 目的创新性地提出了一种能够直观利用中医诊断学知识推理的智能辨证模型以及零临床样本机器学习训练方法,并以眩晕病辨证进行实例分析。方法在基于Transformer的双向编码器(Bidirectional encoder representations from transformers,Bert)深度学习大语言模型的基础上提出新的推理算法,以建立新型智能诊断推理模型。根据《中医内科学》眩晕病肝阳上亢、气血亏虚等6种证型的辨证要点,通过随机函数生成每类证型各400例辨证样本句子序列,直接让模型学习诊断学知识。以5折交叉法对新模型和随机森林模型进行预测对比,以准确率(Accuracy)、F1值(F1-score)、受试者工作特征曲线(Receiver operating characteristic curve,ROC曲线)、精确率-召回率曲线(Precision-recall curve,P-R曲线)等指标评价模型对各种证型的预测性能。同时通过新模型自动输出的辨证推理图直观展示算法对中医辨证思维的模拟推理过程,根据模型推理过程中产生的症状和概率组合数据,计算并绘制证型-概率密度分布图、症状-证型关联聚类热图、证型-证型Pearson相关性分析图,进一步验证辨证结果的可靠性。结果新模型使用5折交叉法测试的平均总体Accuracy以及F1值分别为0.990和0.971,在所有证型中肝肾阴虚的Accuracy(0.975)以及F1值(0.923)最低。ROC曲线和P-R曲线显示新模型预测能力较差的是肝肾阴虚证和肝阳上亢证,而随机森林预测能力较差的是气血亏虚证。证型-概率密度分布图、症状-证型关联聚类热图的数据分布与新模型的推理结论相符,证型-证型Pearson相关性图显示模型所诊断的主证型与其余证型负相关且相关系数的P值小于0.01,表明模型推理过程中对证型的区分性良好。结论基于新型中医智能诊断推理模型,能够进行眩晕智能辨证并根据中医辨证思维展示推理过程,可能有助于解决当前中医人工智能诊断领域的瓶颈难题。 展开更多
关键词 人工智能 可解释性 眩晕 辨证 中医诊断 推理 深度学习 大语言模型 中医 大模型
在线阅读 下载PDF
从“可解释”到“可信任”:人工智能治理的逻辑重构
4
作者 郭小东 《北京工业大学学报(社会科学版)》 北大核心 2025年第6期117-135,共19页
人工智能技术的迅猛发展,特别是大型语言模型的兴起,使得传统以“可解释”为核心的人工智能治理范式面临严峻挑战。在技术层面,大模型参数规模庞大、架构复杂且具有涌现特性,难以实现全面解释;在认知层面,专业术语与日常语言间存在极大... 人工智能技术的迅猛发展,特别是大型语言模型的兴起,使得传统以“可解释”为核心的人工智能治理范式面临严峻挑战。在技术层面,大模型参数规模庞大、架构复杂且具有涌现特性,难以实现全面解释;在认知层面,专业术语与日常语言间存在极大差别,加之人类认知负荷有限,导致解释难以被有效理解;在实践层面,解释往往被异化为形式化的合规工具,难以解决信任问题。基于此,从“可解释”到“可信任”的人工智能治理逻辑重构成为必然。“可信任”范式通过多维度构建对人工智能系统的整体信任。在技术维度,聚焦提升系统的稳健性、可验证性和安全性;在价值维度,致力于实现人工智能与社会伦理价值对齐;在治理维度,注重构建分类分级监管、责任明确与多元协同的适应性治理框架。三个维度相互支撑,共同形成可信任人工智能的治理体系。“可信任”范式并非完全取代“可解释”范式,而是将后者置于更广阔的信任建构体系中,作为特定情境下的重要手段而非普适性目标。此种重构反映了人工智能治理理论从单一技术导向到“技术-社会-制度”综合视角的深化演进,它既正视了复杂人工智能系统“黑箱”特性的客观存在,又积极探索在此约束下建立多维信任的可行路径,为应对日益复杂的人工智能系统提供了更为包容、灵活的治理思路。 展开更多
关键词 生成式人工智能 人工智能治理 可解释性 可信任性 价值对齐
在线阅读 下载PDF
生成式人工智能与“不可解释性”危害结果的客观归属 被引量:7
5
作者 曾聪 《华中科技大学学报(社会科学版)》 CSSCI 北大核心 2024年第5期53-62,112,共11页
生成式人工智能的有限自主性源于以大数据为基础的算法决策的不可解释性,意味着其可以独立造成法益侵害。既有理论深陷人工智能体有无责任能力的主观归责问题,却忽视了生成式人工智能犯罪首先面临的是危害结果之客观归属问题。生成式人... 生成式人工智能的有限自主性源于以大数据为基础的算法决策的不可解释性,意味着其可以独立造成法益侵害。既有理论深陷人工智能体有无责任能力的主观归责问题,却忽视了生成式人工智能犯罪首先面临的是危害结果之客观归属问题。生成式人工智能不是强人工智能,其所造成的法益侵害无法归属于智能体本身,应当根据《生成式人工智能服务暂行管理办法》等技术规范,在生产者与使用者之间分配生成式人工智能所致法益侵害的风险,以填补刑法处罚漏洞。风险分配的依据是技术规范在科技发展与人类安全之间的价值判断立场,其规定了生产者与使用者对不可解释性算法决策可能存在“最差的情形”的注意义务。风险分配的方式是在准备、运算与生成这三个阶段,结合当前人工智能犯罪的不同类型,在生产者与使用者之间进行不对称的风险分配。为避免过度限制科技发展,应根据下位规则限制危害结果的客观归属,一是根据溯责禁止原则限制对生产者的结果归属,二是根据有限的自我答责原则限制对使用者的结果归属。 展开更多
关键词 生成式人工智能 可解释性 客观归属 风险分配
在线阅读 下载PDF
可解释人工智能在电力系统中的应用综述与展望 被引量:35
6
作者 王小君 窦嘉铭 +3 位作者 刘曌 刘畅宇 蒲天骄 和敬涵 《电力系统自动化》 EI CSCD 北大核心 2024年第4期169-191,共23页
可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中... 可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中梳理了电力系统XAI的历史脉络、发展需求及热点技术,总结了XAI在源荷预测、运行控制、故障诊断、电力市场等方面的电力应用,并围绕解释含义、迭代框架、数模融合等方面展望了电力系统XAI的应用前景,可为推动电力系统智能化转型与人机交互迭代提供理论参考与实践思路。 展开更多
关键词 电力系统 人工智能 可解释性 机器学习
在线阅读 下载PDF
智能诊断模型的可解释性策略研究
7
作者 于海涛 牟冬梅 王长聪 《现代情报》 北大核心 2025年第10期115-124,共10页
[目的/意义]面向疾病诊断场景,探讨基于知识和数据融合的人工智能诊断模型的可解释性策略,为促进智能医学发展,进一步加强情报学、数据科学与医学学科间的交叉融合。[方法/过程]结合多学科理论和方法,从知识数据双轮驱动角度,构建可解... [目的/意义]面向疾病诊断场景,探讨基于知识和数据融合的人工智能诊断模型的可解释性策略,为促进智能医学发展,进一步加强情报学、数据科学与医学学科间的交叉融合。[方法/过程]结合多学科理论和方法,从知识数据双轮驱动角度,构建可解释性的智能诊断理论模型框架,并以病毒性肺炎和细菌性肺炎的鉴别诊断进行实证研究。[结果/结论]本文从情报学视角出发,阐述了可解释性智能诊断模型构建策略,并通过实际场景应用验证模型框架的可行性与合理性。 展开更多
关键词 双轮驱动 人工智能 可解释性 智能诊断 肺炎
在线阅读 下载PDF
人工智能治理的中国叙事:意义构建、行动者锚定与全球融入 被引量:1
8
作者 全燕 《上海交通大学学报(哲学社会科学版)》 北大核心 2025年第6期82-92,共11页
《人工智能安全治理框架》1.0版是中国第一部完整意义上的人工智能国家治理政策,聚焦其叙事策略能够揭示国家行为者如何塑造自身及他人对人工智能治理问题的认知与想象。文章采用解释性方法分析该政策文本的表现,提出了三个层次的叙事... 《人工智能安全治理框架》1.0版是中国第一部完整意义上的人工智能国家治理政策,聚焦其叙事策略能够揭示国家行为者如何塑造自身及他人对人工智能治理问题的认知与想象。文章采用解释性方法分析该政策文本的表现,提出了三个层次的叙事分析模式:一是意义构建叙事,通过塑造对预期目标的想象和动员应对不确定性挑战来形成政策的观念背景;二是行动者锚定叙事,它为现有行动者创造新的组织角色,包含将特定行为者定位为开展治理的必要条件,和告知其在防范风险时应采取的行动;三是全球融入叙事,通过参与性框架寻求在国际上塑造一个负责任大国和人工智能强国身份,具体分为公共参与、合作参与和伦理参与。 展开更多
关键词 人工智能治理 政策叙事 行动者 解释性分析 风险
在线阅读 下载PDF
人工智能应用于阿尔茨海默病影像诊断中的伦理审视 被引量:1
9
作者 闫佳佳 寇楠楠 《中国医学伦理学》 北大核心 2025年第2期179-186,共8页
阿尔茨海默病是一种进行性发展的致死性神经退行性疾病,其临床表现为逐渐进展的认知和记忆功能下降、语言和视空间障碍等,至今仍无法治愈和逆转。在临床中阿尔茨海默病通常面临确诊不及时的可能,给阿尔茨海默病的早期干预造成了困难,因... 阿尔茨海默病是一种进行性发展的致死性神经退行性疾病,其临床表现为逐渐进展的认知和记忆功能下降、语言和视空间障碍等,至今仍无法治愈和逆转。在临床中阿尔茨海默病通常面临确诊不及时的可能,给阿尔茨海默病的早期干预造成了困难,因此提高诊断效率,帮助患者尽早确诊阿尔茨海默病尤为重要。随着人工智能技术的不断发展,其在阿尔茨海默病影像诊断中的应用显示出巨大潜力,但同时伴随着诸多伦理问题。通过探讨人工智能在阿尔茨海默病影像诊断研究及应用中带来的数据安全、可解释性、算法歧视以及偶然发现的披露等伦理挑战,并提出相应对策,以期为人工智能应用于医学影像诊断提供一定伦理指引,保护研究参与者/患者的权益,推动技术的健康发展。 展开更多
关键词 人工智能 阿尔茨海默病 数据 算法 可解释性 伦理审视
在线阅读 下载PDF
信任:个体、团体、人工智能体
10
作者 甘绍平 《东南大学学报(哲学社会科学版)》 北大核心 2025年第2期32-41,146,共11页
信任作为人类存在和人际交往的基本条件,先于道德与法律并与它们并列。信任体现出了一种复杂的结构,“一种介于知与未知的中间状态”。信任最大的存在价值在于减少复杂性,但信任并非总是一种正确的行为方式,与时空情境相适的质疑与监控... 信任作为人类存在和人际交往的基本条件,先于道德与法律并与它们并列。信任体现出了一种复杂的结构,“一种介于知与未知的中间状态”。信任最大的存在价值在于减少复杂性,但信任并非总是一种正确的行为方式,与时空情境相适的质疑与监控对于人类生活永远不可或缺。信任发生于具有自我选择能力的行为主体之间,此行为主体不仅指人类个体,而且也是指在功能上拥有自主行为能力的团体与机构。人工智能体并非行为主体,将信任概念用于人工智能系统上仅具有某种拟人化和比喻性的意义。但人工智能体决策过程的可解释性以及与此相关的可信性问题,却构成人工智能研究领域重大的伦理议题。在对信任问题的探究渗透到几乎所有的社会核心领域以及相关的人文社会科学的背景下,信任这一对于哲学边缘性的但日显重大意义的概念,必然成为作为与其他学科处于交叉关系的应用伦理学的研议对象。 展开更多
关键词 信任 个体 团体 人工智能 可信性 可解释性
在线阅读 下载PDF
人工智能可解释性:发展与应用 被引量:15
11
作者 王冬丽 杨珊 +2 位作者 欧阳万里 李抱朴 周彦 《计算机科学》 CSCD 北大核心 2023年第S01期9-15,共7页
近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取。然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进... 近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取。然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进一步应用。因此,亟需提高模型的可解释性,以证明其可靠性。为此,从机器学习模型可解释性、深度学习模型可解释性、混合模型可解释性3个方面对人工智能可解释性研究的典型模型和方法进行了介绍,进一步讲述了可解释人工智能在教学分析、司法判案、医疗诊断3个领域的应用情况,并对现有可解释方法存在的不足进行总结与分析,提出人工智能可解释性未来的发展趋势,希望进一步推动可解释性研究的发展与应用。 展开更多
关键词 人工智能 机器学习 深度学习 可解释性
在线阅读 下载PDF
医疗领域中人工智能应用的可解释性困境与治理 被引量:20
12
作者 张姝艳 皮婷婷 《医学与哲学》 北大核心 2023年第3期25-29,35,共6页
人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的... 人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的可解释性困境,指出提高医疗领域人工智能可解释性的要求,以避免出现医疗事故定责不清、医疗数据隐私泄露、诊疗决策与患者信任相悖、患者医疗公平上的困境等诸多问题。为提高医疗领域中人工智能的可解释性,提出了健全医疗事故法律问责机制、培养医疗数据伦理观、加强医疗监督治理、防止医疗人工智能歧视等路径,以便推动人工智能在医疗领域的深入发展。 展开更多
关键词 人工智能 可解释性 医疗领域 智能医疗
在线阅读 下载PDF
人工智能司法决策的可解释性及其路径研究 被引量:13
13
作者 翁晓斌 饶淑慧 《学习论坛》 北大核心 2022年第5期130-136,共7页
人工智能在司法领域获得诸多应用。智能司法应用通常具有的不可解释性存在过程审查无法进行、加剧算法歧视等内部隐忧,以及司法系统内部关联断裂的外部风险,因而遭遇诸多质疑。究其根本,算法技术的内在机理以及法律与技术的职业障碍、... 人工智能在司法领域获得诸多应用。智能司法应用通常具有的不可解释性存在过程审查无法进行、加剧算法歧视等内部隐忧,以及司法系统内部关联断裂的外部风险,因而遭遇诸多质疑。究其根本,算法技术的内在机理以及法律与技术的职业障碍、智慧司法的技术瓶颈是人工智能司法决策可解释性缺失的缘由。随着世界范围内智能司法可解释性相关制度文件的出台,以及算法可解释性与准确性可兼容并存的认知革新,人工智能司法决策的解释路径与透明化势在必行。提高技术应用深度、借鉴已有的技术解释路径针对性研发智慧司法应用的解释方法,能够促进人工智能司法决策可解释性的有效提升,助力司法公正。 展开更多
关键词 人工智能司法决策 可解释性 算法歧视 公正司法
在线阅读 下载PDF
重新找回人工智能的可解释性 被引量:36
14
作者 何华灿 《智能系统学报》 CSCD 北大核心 2019年第3期393-412,共20页
针对深度神经网络 AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较... 针对深度神经网络 AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较大的知识(分子),再把较小粒度的知识变成较大粒度的知识,把原有的强可解释性淹没在中间层次的汪洋大海中。要支持多粒度的知识处理,需把刚性逻辑扩张为柔性命题逻辑(命题级数理辩证逻辑),把二值神经元扩张为柔性神经元,才能保持强可解释性。本文详细介绍了从刚性逻辑到柔性逻辑的扩张过程和成果,最后介绍了它们在 AI研究中的应用,这是重新找回 AI研究强可解释性的最佳途径。 展开更多
关键词 人工智能 可解释性 演化 不确定性 泛逻辑学 柔性命题逻辑 柔性神经元 数理辩证逻辑
在线阅读 下载PDF
走向可解释性:打开教育中人工智能的“黑盒” 被引量:38
15
作者 刘桐 顾小清 《中国电化教育》 CSSCI 北大核心 2022年第5期82-90,共9页
教育是人工智能的重要应用领域,探索教育中人工智能的可解释性,是让人工智能在教育领域中更具“责任感”的重要议题。该文从教育中人工智能应用的现实问题出发,重点回应教育中人工智能的可解释性是什么,做了什么,以及未来走向三个问题... 教育是人工智能的重要应用领域,探索教育中人工智能的可解释性,是让人工智能在教育领域中更具“责任感”的重要议题。该文从教育中人工智能应用的现实问题出发,重点回应教育中人工智能的可解释性是什么,做了什么,以及未来走向三个问题。首先,以数据、任务、模型、人四个关键要素为切入点,分析阐述教育中人工智能的可解释性内涵;之后纵观教育中人工智能的可解释工作的演进过程,分析得出已有工作在教育意义注入、模型趋于复杂以及单向解释信息传递等方面的局限性;最后,从知识联邦、模型融生、人在回路三个角度,阐释教育中人工智能可解释性的未来发展方向。 展开更多
关键词 教育人工智能 可解释性 “黑盒”模型 人在回路
在线阅读 下载PDF
论人工智能透明度原则的法治化实现 被引量:25
16
作者 张永忠 《政法论丛》 CSSCI 北大核心 2024年第2期124-137,共14页
随人工智能应用范围不断扩大,透明度原则成为破解“算法黑箱”难题的钥匙。透明度原则包括形式透明和实质透明。形式透明是对人工智能基础信息的披露,使人工智能的部署使用处于非秘密状态。实质透明与人工智能的可解释性息息相关,强调... 随人工智能应用范围不断扩大,透明度原则成为破解“算法黑箱”难题的钥匙。透明度原则包括形式透明和实质透明。形式透明是对人工智能基础信息的披露,使人工智能的部署使用处于非秘密状态。实质透明与人工智能的可解释性息息相关,强调对披露信息以可被理解的方式进行有意义解释,从而打破知识壁垒,使相关信息实现真正可知。透明度原则应在法治化实现上进行精细考量:在考虑现有技术条件的基础上,有必要根据监管机关和社会公众的能力不同有区别地对披露和解释的信息内容提出义务要求,并针对不同人工智能的风险程度采取分级分类分场景的执行标准,从保护用户与公众知情权行使、确保国家监管权落实两方面推动透明度原则实现。 展开更多
关键词 人工智能治理 透明度原则 披露 可解释性 法治化
在线阅读 下载PDF
大模型的逻辑增强与人工智能驱动的行业创新 被引量:4
17
作者 陈小平 《技术经济》 CSSCI 北大核心 2024年第12期1-9,共9页
本文探讨通过大模型等人工智能技术推动制造业创新发展的重大意义,以及面临的挑战和机遇。分析大模型技术体系的构成,阐释其工程学基本概念,介绍关联度预测的一种科学解释——类L C理论。基于该理论,分析大模型的奇异表现的深层原因与... 本文探讨通过大模型等人工智能技术推动制造业创新发展的重大意义,以及面临的挑战和机遇。分析大模型技术体系的构成,阐释其工程学基本概念,介绍关联度预测的一种科学解释——类L C理论。基于该理论,分析大模型的奇异表现的深层原因与重要后果,形成对大模型技术更全面、更深入的理解。在此基础上,梳理制造业细分行业对人工智能技术的三项基本要求——专业性、逻辑可靠性和知识能力;分析大模型技术与人工智能强力法技术相集成的核心难点;提出构建行业人工智能系统的封闭化方案,由该方案构建的行业人工智能系统满足三项基本要求,并具有可解释性和可控性。最后,简要讨论制造业高质量发展中从“新技术的行业应用”向“新技术驱动的行业创新”转变的新趋势。 展开更多
关键词 大模型 人工智能 可解释性 制造业 行业人工智能 行业创新
在线阅读 下载PDF
基于可解释性条件生成对抗网络的台风气象负荷场景生成方法 被引量:3
18
作者 罗萍萍 盛奥 +3 位作者 林济铿 马骞 许琴 刘一鸣 《电力系统自动化》 北大核心 2025年第2期186-197,共12页
台风气象下电网负荷将会出现剧烈波动且威胁到电网安全稳定运行,亟需一种有效的方法来生成相应的负荷需求场景。文中提出一种面向稀少历史样本、基于可解释性条件生成对抗网络(CGAN)的台风负荷场景生成方法。首先,对历史台风负荷进行修... 台风气象下电网负荷将会出现剧烈波动且威胁到电网安全稳定运行,亟需一种有效的方法来生成相应的负荷需求场景。文中提出一种面向稀少历史样本、基于可解释性条件生成对抗网络(CGAN)的台风负荷场景生成方法。首先,对历史台风负荷进行修正,并根据台风登陆位置、等级等信息对其进行标签分类。然后,提出一种两阶段数据扩充策略以应对数据匮乏问题,第1阶段利用历史台风日负荷序列之间的横纵向相关性信息进行样本扩充,第2阶段利用台风日与非台风日负荷之间的残差信息进一步进行样本扩充。最后,提出基于特征影响指标的CGAN因果解释方法,刻画了不同特征对于模型结果的调控力度大小。算例证实了文中所提模型及方法的有效性和先进性。 展开更多
关键词 台风气象 人工智能 负荷需求 场景生成 可解释性 条件生成对抗网络
在线阅读 下载PDF
迈向可解释的交互式人工智能:动因、途径及研究趋势 被引量:41
19
作者 吴丹 孙国烨 《武汉大学学报(哲学社会科学版)》 CSSCI 北大核心 2021年第5期16-28,共13页
近年来,人工智能的功能愈发强大,应用场景也越来越广泛。在人机交互协作成为常态的背景下,人们对人工智能可信任度及交互体验的要求也随之增高,机器的可解释性受到广大用户的高度重视,可解释的人工智能正在成为相关领域的重要议题。要... 近年来,人工智能的功能愈发强大,应用场景也越来越广泛。在人机交互协作成为常态的背景下,人们对人工智能可信任度及交互体验的要求也随之增高,机器的可解释性受到广大用户的高度重视,可解释的人工智能正在成为相关领域的重要议题。要迈向可解释的交互式人工智能,应当从设计指导性的框架准则、开发良好的算法模型、深入研究用户需求、构建个性化的交互式解释系统、展开有效的可解释性评估等方面发力。 展开更多
关键词 人工智能 人机交互 可解释性 系统透明度 用户信任
在线阅读 下载PDF
AI-CDSS可解释性对基层医生使用意愿的影响——基于信任的中介效应分析
20
作者 欧阳慧珍 付谦 +1 位作者 李雯 许洛 《中国医院管理》 北大核心 2025年第8期51-56,共6页
目的探究基层医生对人工智能临床决策支持系统(AI-CDSS)的使用态度,分析人工智能(AI)系统可解释性、基层医生对AI-CDSS的信任与使用意愿之间的关系及作用机制,为在基层医疗卫生机构更好地推广及利用AI技术赋能基层医疗卫生服务提供参考... 目的探究基层医生对人工智能临床决策支持系统(AI-CDSS)的使用态度,分析人工智能(AI)系统可解释性、基层医生对AI-CDSS的信任与使用意愿之间的关系及作用机制,为在基层医疗卫生机构更好地推广及利用AI技术赋能基层医疗卫生服务提供参考。方法以安徽省铜陵市基层医生为调查对象,采用专业量表收集AI系统可解释性、信任和使用意愿数据。采用SPSS 26.0软件进行描述性统计、相关性分析以及中介效应检验。结果AI系统可解释性、信任与使用意愿之间均呈正相关(r=0.788,0.865,P<0.01),AI系统可解释性与信任呈正相关(r=0.776,P<0.01)。信任在AI系统可解释性与使用意愿之间起部分中介作用,中介效应值为0.568(95%CI=0.373~0.669)。结论基层医疗卫生机构在推广AI-CDSS时,应优先考虑采用高可解释性的AI系统,以提升医生信任,从而增强其使用意愿,最终实现AI技术在基层医疗卫生服务中的有效应用和推广。 展开更多
关键词 人工智能临床决策支持系统 基层医生 可解释性 信任 使用意愿
在线阅读 下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部