-
题名智能化设备人机交互界面的信任校准综述
- 1
-
-
作者
葛畅
郭凯毅
朱雨菁
余隋怀
-
机构
西安理工大学艺术与设计学院
西北工业大学陕西省工业设计工程实验室
-
出处
《机械设计》
北大核心
2025年第2期159-165,共7页
-
基金
陕西省社科基金项目(2020J040)。
-
文摘
信任校准是智能化设备人机交互界面设计的关键问题之一,通过校准人对自动化系统的信任水平与自动化系统能力间的匹配程度,使信任维持在适当水平,可提高人机共事的绩效并保障人机系统的安全。对人机交互界面信任校准的概念、研究领域、策略与判定方法进行综述,将其研究领域分为自动驾驶、机器人和智能设备;交互界面信任校准策略中主要包含界面信息呈现的内容、形式与时机3个层面,信任校准判定包括判定标准与信任测量。对相关文献进行分析,结果表明,对智能化设备HMI信任校准概念性研究较多,而具体的校准流程研究较少。因此,未来应关注界面设计要素与信任度间的关系、智能化设备信任校准触发机理、交互界面的动态信任预测与界面自适应的信任校准系统等。
-
关键词
智能化装备
人机交互界面
综述
信任校准
-
Keywords
intelligent equipment
HMI
review
trust calibration
-
分类号
TB472
[一般工业技术—工业设计]
-
-
题名人机信任校准的双途径:信任抑制与信任提升
被引量:9
- 2
-
-
作者
黄心语
李晔
-
机构
华中师范大学心理学院暨青少年网络心理与行为教育部重点实验室
-
出处
《心理科学进展》
CSSCI
CSCD
北大核心
2024年第3期527-542,共16页
-
基金
国家自然科学基金面上项目(72371113,71771102)资助。
-
文摘
信任是人机成功合作的基础。但个体在人机交互中并不总是持有恰当的信任水平,也可能会出现信任偏差:过度信任和信任不足。信任偏差会妨碍人机合作,因此需要对信任进行校准。信任校准常常通过信任抑制与信任提升两条途径来实现。信任抑制聚焦于如何降低个体对机器人过高的信任水平,信任提升则侧重于如何提高个体对机器人较低的信任水平。未来研究可进一步优化校准效果评估的测量方法、揭示信任校准过程中以及信任校准后个体的认知变化机制、探索信任校准的边界条件以及个性化和精细化的信任校准策略,以期助推人机协作。
-
关键词
信任校准
信任偏差
信任抑制
信任提升
人机交互
-
Keywords
trust calibration
trust bias
trust dampening
trust promoting
human-robot interaction
-
分类号
B849
[哲学宗教—应用心理学]
-
-
题名通用人工智能时代的人与AI信任
被引量:8
- 3
-
-
作者
齐玥
陈俊廷
秦邵天
杜峰
-
机构
中国人民大学心理学系
中国人民大学心理学系实验室
中国科学院行为科学重点实验室
中国科学院大学心理学系
-
出处
《心理科学进展》
CSSCI
CSCD
北大核心
2024年第12期2124-2136,共13页
-
基金
国家自然科学基金(32471130,32000771,32371107)
中国人民大学科学研究基金(中央高校基本科研业务费专项资金资助)项目成果(21XNLG13)
2018年度中央高校建设世界一流大学(学科)和特色发展引导专项资金(RUCPSY0007)。
-
文摘
随着技术的发展,通用人工智能初见雏形,人机交互以及人机关系将进入新的时代。人与人工智能(AI)的信任关系也即将从单方向的人对AI信任逐渐转变为人与AI的互信。本研究在回顾社会心理学中的人际信任模型与工程心理学中的人机信任模型的基础上,从人际信任视角提出了人与AI动态互信模型。该模型将人与AI视为对等的信任建立方,结合信任与被信任方的影响因素、结果反馈和行为调整构建了人与AI动态互信的基本理论框架,强调了人与AI信任中关系维度的“互信”与时程维度的“动态”这两个重要特征。模型首次将AI对人的信任以及二者互信的动态交互过程纳入分析,为人与AI的信任研究提供新的理论视角。未来研究应更多关注AI对人的信任如何建立与维持、人与AI互信的量化模型以及多智能体交互中的人与AI互信。
-
关键词
信任
人机互信
信任校准
人机关系
人与AI
-
Keywords
trust
human-machine mutual trust
trust calibration
human-machine relationship
human-AI
-
分类号
B849
[哲学宗教—应用心理学]
-
-
题名自动驾驶车中的人机信任
被引量:28
- 4
-
-
作者
高在峰
李文敏
梁佳文
潘晗希
许为
沈模卫
-
机构
浙江大学心理与行为科学系
浙江大学心理科学中心
-
出处
《心理科学进展》
CSSCI
CSCD
北大核心
2021年第12期2172-2183,共12页
-
基金
科技创新2030子课题(2018AAA0101605)
科技部重点研发计划(2019YFB1600504)。
-
文摘
自动驾驶是当前智能汽车发展的重要方向。在实现完全自动化驾驶前,驾驶员和自动驾驶系统共享车辆控制权,协同完成驾驶任务。在该人−机共驾阶段,人对自动驾驶系统的信任是影响自动驾驶中人机协同效率与驾驶安全的关键要素;驾驶员对自动驾驶车辆保持适当的信任水平对驾驶安全至关重要。本研究结合信任的发展阶段与影响因素提出了动态信任框架。该框架将信任发展分为倾向性信任、初始信任、实时信任和事后信任四个发展阶段,并结合操作者特征(人)、系统特征(自动驾驶车系统)、情境特征(环境)三个关键因素分析不同阶段的核心影响因素以及彼此间的内在关联。根据该框架,信任校准可从监测矫正、驾驶员训练、优化HMI设计三类途径展开。未来研究应更多关注驾驶员和人机系统设计特征对信任的影响,考察信任的实时测量和功能特异性,探讨驾驶员和系统的相互信任机制,以及提升信任研究的外部效度。
-
关键词
信任
自动驾驶
动态信任框架
信任校准
HMI
设计
-
Keywords
trust
automated driving
dynamic trust framework
trust calibration
HMI design
-
分类号
B849
[哲学宗教—应用心理学]
U491
[交通运输工程—交通运输规划与管理]
-
-
题名自动化信任的研究综述与展望
被引量:14
- 5
-
-
作者
董文莉
方卫宁
-
机构
北京交通大学轨道交通控制与安全国家重点实验室
-
出处
《自动化学报》
EI
CAS
CSCD
北大核心
2021年第6期1183-1200,共18页
-
基金
北京市自然科学基金(L191018)资助。
-
文摘
随着自动化能力的快速提升,人机关系发生深刻变化,人的角色逐渐从自动化的主要控制者转变为与其共享控制的合作者.为了实现绩效和安全目标,人机协同控制需要操作人员适当地校准他们对自动化机器的信任,自动化信任问题已经成为实现安全有效的人机协同控制所面临的最大挑战之一.本文回顾了自动化信任相关文献,围绕自动化信任概念、模型、影响因素及测量方法,对迄今为止该领域的主要理论和实证工作进行了详细总结.最后,本文在研究综述和相关文献分析的基础上提出了现有自动化信任研究工作中存在的局限性,并从人机系统设计的角度为未来的自动化信任研究提供一些建议.
-
关键词
自动化信任
信任校准
人机协同控制
人机系统设计
-
Keywords
Trust in automation
trust calibration
human-machine collaborative control
human-machine system design
-
分类号
TP20
[自动化与计算机技术—检测技术与自动化装置]
-