期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于可解释性人工智能的软件工程技术方法综述 被引量:7
1
作者 邢颖 《计算机科学》 CSCD 北大核心 2023年第5期3-11,共9页
在信息处理与决策方面,人工智能(AI)方法相比传统方法表现出了优越的性能。但在将AI模型投入生产时,其输出结果并不能保证完全准确,因此AI技术的“不可信”逐渐成为AI大规模落地的一大阻碍。目前人工智能被逐步应用到软件工程中,其过度... 在信息处理与决策方面,人工智能(AI)方法相比传统方法表现出了优越的性能。但在将AI模型投入生产时,其输出结果并不能保证完全准确,因此AI技术的“不可信”逐渐成为AI大规模落地的一大阻碍。目前人工智能被逐步应用到软件工程中,其过度依赖历史数据和决策不透明等弊端愈发明显,因此对决策结果做出合理的解释至关重要。文中对可解释性人工智能的基本概念、可解释模型的评估进行了详细阐述,探讨了软件工程与可解释人工智能结合的可行性;同时调研了相关文献,对软件工程中的恶意软件检测、高风险组件检测、软件负载分配、二进制代码相似性分析这4个人工智能的典型应用方向做出分析,讨论如何通过可解释AI揭示系统输出的正确程度,进而提高系统决策的可信度;最后展望未来软件工程与可解释人工智能相结合的研究方向。 展开更多
关键词 可解释人工智能 软件工程 恶意软件检测 代码相似性分析
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部