-
题名面向学术信息推荐的用户信任可解释模型构建
- 1
-
-
作者
陈韵怡
吴丹
夏子硕
-
机构
武汉大学信息管理学院
-
出处
《情报学报》
2025年第9期1192-1203,共12页
-
基金
国家自然科学基金重大研究计划培育项目“人机交互视角下数据与知识双驱动的可解释智能决策方法研究”(92370112)
2023年度湖北省自然科学基金创新群体项目“以人为本的人工智能创新应用”(2023AFA012)。
-
文摘
随着人工智能先进程度的提高,无法解释的“黑匣”正在阻碍人们对系统的理解和信任,限制了人与人工智能的合作关系。本文以提升人工智能的可解释性为核心,面向学术信息智能推荐这一应用场景,提出并验证了分阶段的、以问题为导向的、面向学术信息推荐的用户信任可解释模型。该模型从人机交互的过程出发,将交互全流程划分为初次接触、开始交互、深入协作三阶段,规定了各阶段应对哪些问题进行解释,以实现提升用户信任、促进人机交互的效果。然后,验证了该模型的有效性与合理性,并基于扎根理论对访谈内容进行开放式编码、主轴式编码、选择性编码三级编码,采用编码结果对模型进行阐释与完善,提出可解释实践优化策略。本文提出的分阶段、问题导向的可解释模型能够多层面提升用户信任,其解释内容、呈现形式、语言风格与用户的系统认知、使用意愿和使用行为之间存在映射关系。基于此,本文针对各阶段解释问题,从解释内容和呈现形式两个方面提出各交互阶段的具体指导策略,以期为可解释人工智能的构建提供助力。
-
关键词
可解释人工智能
用户信任
学术信息推荐
人机交互
-
Keywords
explainable artificial intelligence
user trust
academic information recommendation
human-computer interaction
-
分类号
G252
[文化科学]
-