摘要
ChatGPT类生成式人工智能主要存在着知识问答、编程反馈、协同创作等三种类型化的应用场景,遵循着问题提出、分析需求、生成内容、互动反馈,校准输出等五个基本运行环节。通过考察ChatGPT的应用运行,本文认为其主要存在着五个方面的风险生成内在机理:第一,ChatGPT语料数据库的建立,存在真假双重性与匿名性;第二,ChatGPT的人机互动模式,以消除用户隐私性为基本前提;第三,ChatGPT对算法与算力的依赖,具有高度的技术单向性;第四,ChatGPT结果输出的高效便捷,具有技术沉溺诱导性;第五,ChatGPT的工具理性逻辑,具有价值判断真空性。当前,ChatGPT类生成式人工智能主要存在着虚假信息泛滥带来网络生态治理困境、人机互动下的数字隐私泄露风险加大、数字鸿沟加重社会层级分化、人机交往单向化导致人类社会技术异化、新型人机关系带来科技伦理问题等五个方面的风险。对此,应从构建多元主体共建共治共享的人工智能治理共同体、强化人工智能技术的全过程治理、建立人工智能风险预警与干预机制、推进人工智能产业统筹和协调发展、加强教育培训提升全民人工智能素养等方面入手,切实推进对ChatGPT类生成式人工智能的治理。
出处
《贵州社会科学》
CSSCI
北大核心
2023年第11期138-143,共6页
Guizhou Social Sciences
基金
北京师范大学互联网发展研究院-中移动研究院联合研发项目“生成式人工智能技术发展中的科技伦理框架研究”(项目编号:BNUIDI2023)
作者简介
张诗濠,北京师范大学互联网发展研究院科研助理,贵阳康养职业大学教师,主要研究方向:新闻传播、数字治理;李赟,北京师范大学互联网发展研究院科研助理,主要研究方向:新闻传播、数字治理;李韬,北京师范大学互联网发展研究院院长,新闻传播学院教授,博士生导师,主要研究方向:新闻传播、数字治理。