期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
算法可解释性的价值及其法治化路径
被引量:
8
1
作者
王海燕
《重庆社会科学》
CSSCI
北大核心
2024年第1期120-135,共16页
随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳...
随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳入社会规范系统约束的关键理念,其实现程度对维护法治秩序和保护被决策主体的权益至关重要。当下实现算法可解释性的主要制度依托包括设置比例化的透明度不同程度地打开黑箱、构筑多方协同审查机制落实责任主体、制度化直观关系保证“人在回路”。这些举措的落脚点在于维护算法技术的内在善。
展开更多
关键词
算法
决策
算法可解释性
正当程序
问责制
人类尊严
在线阅读
下载PDF
职称材料
商业自动化决策算法解释权的功能定位与实现路径
被引量:
61
2
作者
张凌寒
《苏州大学学报(哲学社会科学版)》
CSSCI
北大核心
2020年第2期51-60,191,共11页
商业自动化决策广泛应用,算法的评分影响用户贷款、就业、信誉等诸多权益。算法的自动化决策应具备可解释性,已经成为学术共识并在多国实践中展开。然而,算法解释面临着从技术方案转为法律制度的挑战,以及算法解释对象不清、标准不明、...
商业自动化决策广泛应用,算法的评分影响用户贷款、就业、信誉等诸多权益。算法的自动化决策应具备可解释性,已经成为学术共识并在多国实践中展开。然而,算法解释面临着从技术方案转为法律制度的挑战,以及算法解释对象不清、标准不明、可能造成商业秘密泄露等质疑。自动化决策的算法解释权生产社会信任,救济用户权利,在算法治理体系中扮演着保障私权利的安全网的角色。具体的制度设计而言,自动化决策的算法解释应以用户行为干预为导向,解释的内容包括算法、数据与其他决策理由等多项内容,而非技术源代码。个体启动的算法解释应嵌入平台结构设计中,以具有重大影响、未达到人类参与决策程度的评价类算法为范围,并与个人数据保护制度耦合。本着兼顾效率与公平的原则,应适当限定算法解释权的适用范围,明确算法解释的内容,并以合乎程序标准与实质标准的方式提供。在程序上应由平台先行处理。
展开更多
关键词
算法可解释性
双层结构
算法
解释
标准
私权救济
在线阅读
下载PDF
职称材料
题名
算法可解释性的价值及其法治化路径
被引量:
8
1
作者
王海燕
机构
西南政法大学行政法学院
出处
《重庆社会科学》
CSSCI
北大核心
2024年第1期120-135,共16页
基金
国家社会科学基金重大项目“新时代国家安全法治的体系建设与实施措施研究”(20&ZD190)。
文摘
随着自主学习算法技术的纵深迭代,自动化决策已广泛嵌入人类社会的决策系统中。然而,由于其专业性和黑箱性,算法决策自动化对人类法律秩序构建的程序正当性及问责机制形成威胁,最终对人性尊严构成根本挑战。算法可解释性是将算法系统纳入社会规范系统约束的关键理念,其实现程度对维护法治秩序和保护被决策主体的权益至关重要。当下实现算法可解释性的主要制度依托包括设置比例化的透明度不同程度地打开黑箱、构筑多方协同审查机制落实责任主体、制度化直观关系保证“人在回路”。这些举措的落脚点在于维护算法技术的内在善。
关键词
算法
决策
算法可解释性
正当程序
问责制
人类尊严
Keywords
algorithmic decision-making
algorithmic interpretability
due process
accountability
human dignity
分类号
D90 [政治法律—法学理论]
在线阅读
下载PDF
职称材料
题名
商业自动化决策算法解释权的功能定位与实现路径
被引量:
61
2
作者
张凌寒
机构
北京科技大学文法学院
出处
《苏州大学学报(哲学社会科学版)》
CSSCI
北大核心
2020年第2期51-60,191,共11页
基金
教育部项目“人工智能时代算法治理的法律制度构建研究”(项目编号:19YJA820053)的阶段性成果。
文摘
商业自动化决策广泛应用,算法的评分影响用户贷款、就业、信誉等诸多权益。算法的自动化决策应具备可解释性,已经成为学术共识并在多国实践中展开。然而,算法解释面临着从技术方案转为法律制度的挑战,以及算法解释对象不清、标准不明、可能造成商业秘密泄露等质疑。自动化决策的算法解释权生产社会信任,救济用户权利,在算法治理体系中扮演着保障私权利的安全网的角色。具体的制度设计而言,自动化决策的算法解释应以用户行为干预为导向,解释的内容包括算法、数据与其他决策理由等多项内容,而非技术源代码。个体启动的算法解释应嵌入平台结构设计中,以具有重大影响、未达到人类参与决策程度的评价类算法为范围,并与个人数据保护制度耦合。本着兼顾效率与公平的原则,应适当限定算法解释权的适用范围,明确算法解释的内容,并以合乎程序标准与实质标准的方式提供。在程序上应由平台先行处理。
关键词
算法可解释性
双层结构
算法
解释
标准
私权救济
Keywords
algorithm interpretation rights
two-tier structure
standards of algorithm interpretation
private-right remedies
分类号
D922.294 [政治法律—经济法学]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
算法可解释性的价值及其法治化路径
王海燕
《重庆社会科学》
CSSCI
北大核心
2024
8
在线阅读
下载PDF
职称材料
2
商业自动化决策算法解释权的功能定位与实现路径
张凌寒
《苏州大学学报(哲学社会科学版)》
CSSCI
北大核心
2020
61
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部