-
题名人工智能教育应用的偏见风险分析与治理
被引量:48
- 1
-
-
作者
沈苑
汪琼
-
机构
北京大学教育学院
-
出处
《电化教育研究》
CSSCI
北大核心
2021年第8期12-18,共7页
-
基金
教育部—中国移动科研基金2018年度项目“中小学编程教育与人工智能工程素养研究”(项目编号:MCM20180611)。
-
文摘
在倡导教育包容与公平的时代背景下,教育面临着以个性化、自适应为特征的智能技术所带来的偏见风险。在智能教育产品的研发过程中,潜在的设计偏见、数据偏见和算法偏见会使教育领域面临多重风险,如教育活动的公平性受阻、教育系统内部的歧视加剧、教育中的多元化特质消解和学生思想窄化。学校、科技公司、监管机构等组织应当携手共进,提前侦测偏见风险并加强治理,包括:提升研发团队的教育理解和多元眼光,让师生成为产品的合作创造者,加强偏见检测和道德评估过程,建立可解释、可审查、可纠正的系统优化机制,开展面向师生的人工智能素养教育,确立人工智能在教育中的应用范围和伦理规范,从而争取实现人机良性互动,打造多元包容的智能教育环境。
-
关键词
人工智能教育应用
人工智能伦理
教育包容
算法偏见
数据偏见
-
Keywords
Artificial Intelligence in Education(AIED)
Ethics of Artificial Intelligence
Educational Inclusiveness
Algorithmic Bias
Data Bias
-
分类号
G434
[文化科学—教育技术学]
-
-
题名数字媒体的三个迷思
被引量:2
- 2
-
-
作者
郭石磊
詹姆斯.韦伯斯特
-
机构
河北农业大学外国语学院
美国西北大学传播学院
-
出处
《中州学刊》
CSSCI
北大核心
2017年第6期169-172,共4页
-
文摘
用户掌控权力、大数据客观中立、受众分化是三个典型的数字媒体迷思。事实上,用户面临着选择困境,受到包括推荐机制在内的媒体结构的影响;大数据中存在着行为偏见、流行度偏见和个性化偏见,而且大数据分析还具有塑造现实的作用;媒体结构和用户消费中都存在着集中化趋势。由此可见,数字媒体给我们带来的变革也许并不完全如同想象的那样,相反的力量仍然在发挥着作用。
-
关键词
数字媒体迷思
媒介选择困境
大数据偏见
受众分化
-
Keywords
myths of digital media
dilemma of selecting media
bias of big data
audience fragmentation
-
分类号
G206.3
[文化科学—传播学]
-
-
题名负责任的人工智能与设计创新
被引量:9
- 3
-
-
作者
王韫
徐迎庆
-
机构
北京航空航天大学
清华大学
-
出处
《包装工程》
CAS
北大核心
2021年第6期1-6,36,共7页
-
文摘
目的快速发展的人工智能技术的应用将改变人们在未来的思考和生活方式,重塑社会礼仪和道德伦理,产生巨大而不可估量的影响。数据噪音所带来的潜在社会道德和设计伦理问题可能会对设计创新中的公平性和包容性造成干扰和威胁,潜移默化地加剧社会矛盾,加深社会的不稳定性。因此,在全球化、普适计算和物联网时代,设计需要理性地重新思考其在人文艺术和科学技术之间的桥梁作用,并从新的角度来观察与探究人工智能应用下的“不确定性”问题。方法面向应用的人工智能的本质是工具性的,然而设计师群体对这种新工具的理解和思辨还有很大的改善空间。设计具备将价值观融入造物的能力和义务,应充分地发挥其特质和作用,借鉴负责任创新中的预期、反思、协商和响应四个责任维度,将责任风险评估、管理和干预全方位地嵌入到人工智能应用设计创新的决策和流程中,以一个包容开放的动态适应机制来应对未来的挑战。结论设计师是社会创新的重要驱动力之一,需要积极地投身于倡导创新价值、技术及设计伦理的前沿。负责任的人工智能和设计创新应协同制定更具有前瞻性的目标和任务,引领聚光灯照亮人类前进的方向。
-
关键词
人工智能
数据偏见
负责任创新
负责任设计
设计伦理
设计决策
社会责任
-
Keywords
artificial intelligence
data bias
responsible innovation
responsible design
design ethic
design decision
social responsibility
-
分类号
TB472
[一般工业技术—工业设计]
-
-
题名算法公平与公平计算
被引量:2
- 4
-
-
作者
范卓娅
孟小峰
-
机构
中国人民大学信息学院
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2023年第9期2048-2066,共19页
-
基金
国家自然科学基金项目(91846204,62172423)。
-
文摘
算法公平问题由来已久,且随着社会变革历程不断花样翻新.随着数字化转型的加速推进,算法公平问题的根源逐渐由社会偏见转向数据偏见与模型偏见,算法给人带来的剥削变得更为隐蔽,而影响更为深远.尽管社会科学各领域对公平问题研究已久,但大部分仅停留在定性的表述上.作为计算机科学与社会科学的交叉问题,数字化转型下的算法公平不仅要继承社会科学各领域的基本理论,更要具备公平计算的方法与能力.由此,从算法公平的内涵出发,从社会偏见、数据偏见与模型偏见3个维度总结现有的算法公平计算方法,最后对算法公平指标和公平方法进行实验对比,进而分析算法公平计算面临的挑战.实验表明,原始模型的公平性与准确性之间存在权衡关系,公平方法的公平性与准确性之间存在一致关系.在公平指标上,不同公平指标之间的相关性差异较大,这说明了多样的公平指标的重要性.在公平方法上,单一的公平方法效果有限,这说明了探索公平方法组合的重要性.
-
关键词
算法公平
公平计算
社会偏见
数据偏见
模型偏见
-
Keywords
algorithmic fairness
fairness computing
social bias
data bias
model bias
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名智慧城市建设中的算法歧视及其消除
被引量:4
- 5
-
-
作者
周荣超
-
机构
华东政法大学政治学与公共管理学院
河南大学民生学院
-
出处
《领导科学》
北大核心
2021年第6期100-103,共4页
-
文摘
大数据、算力与算法是智慧城市快速发展的技术支撑,但数据源偏见、算法能力掌控、算法透明与追溯等问题,阻碍了宜居美好智慧城市的建设。消除智慧城市建设中的算法歧视问题,要正确处理数据偏见,注重算法伦理,坚持以人为本的发展理念,实现有效的智慧城市建设。
-
关键词
智慧城市建设
城市治理
算法歧视
数据源偏见
算法伦理
-
分类号
C936
[经济管理—管理学]
-