期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
算法可解释性的价值及其法治化路径 被引量:8
1
作者 王海燕 《重庆社会科学》 CSSCI 北大核心 2024年第1期120-135,共16页
随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳... 随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳入社会规范系统约束的关键理念,其实现程度对维护法治秩序和保护被决策主体的权益至关重要。当下实现算法可解释性的主要制度依托包括设置比例化的透明度不同程度地打开黑箱、构筑多方协同审查机制落实责任主体、制度化直观关系保证“人在回路”。这些举措的落脚点在于维护算法技术的内在善。 展开更多
关键词 算法决策 算法可解释性 正当程序 问责制 人类尊严
在线阅读 下载PDF
商业自动化决策算法解释权的功能定位与实现路径 被引量:61
2
作者 张凌寒 《苏州大学学报(哲学社会科学版)》 CSSCI 北大核心 2020年第2期51-60,191,共11页
商业自动化决策广泛应用,算法的评分影响用户贷款、就业、信誉等诸多权益。算法的自动化决策应具备可解释性,已经成为学术共识并在多国实践中展开。然而,算法解释面临着从技术方案转为法律制度的挑战,以及算法解释对象不清、标准不明、... 商业自动化决策广泛应用,算法的评分影响用户贷款、就业、信誉等诸多权益。算法的自动化决策应具备可解释性,已经成为学术共识并在多国实践中展开。然而,算法解释面临着从技术方案转为法律制度的挑战,以及算法解释对象不清、标准不明、可能造成商业秘密泄露等质疑。自动化决策的算法解释权生产社会信任,救济用户权利,在算法治理体系中扮演着保障私权利的安全网的角色。具体的制度设计而言,自动化决策的算法解释应以用户行为干预为导向,解释的内容包括算法、数据与其他决策理由等多项内容,而非技术源代码。个体启动的算法解释应嵌入平台结构设计中,以具有重大影响、未达到人类参与决策程度的评价类算法为范围,并与个人数据保护制度耦合。本着兼顾效率与公平的原则,应适当限定算法解释权的适用范围,明确算法解释的内容,并以合乎程序标准与实质标准的方式提供。在程序上应由平台先行处理。 展开更多
关键词 算法可解释性 双层结构 算法解释标准 私权救济
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部