期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
生成式预训练模型机器人及其潜力与挑战 被引量:2
1
作者 张帆 谭跃刚 《中国机械工程》 EI CAS CSCD 北大核心 2024年第7期1241-1252,共12页
机器人与ChatGPT的融合可形成具有人类智慧特征的“硅智能体”,定义为“生成式预训练模型机器人”。以ChatGPT和机器人的智能融合为对象,阐述了GPT-R的特点、技术趋势及在工业和人类生活中的应用。分析了GPT-R在体力、智力及与人类共融... 机器人与ChatGPT的融合可形成具有人类智慧特征的“硅智能体”,定义为“生成式预训练模型机器人”。以ChatGPT和机器人的智能融合为对象,阐述了GPT-R的特点、技术趋势及在工业和人类生活中的应用。分析了GPT-R在体力、智力及与人类共融发展中存在的问题,从GPT-R的本体与智能、法律与安全、社会规则三方面给出相应对策。结合了ChatGPT和机器人技术的GPT-R将拥有越来越广泛的应用场景和越来越大的市场潜力,成为未来人工智能和机器人共融发展的重要方向之一。 展开更多
关键词 生成式预训练模型机器人 人工智能 硅智能体 共融发展
在线阅读 下载PDF
生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例 被引量:92
2
作者 郭春镇 《现代法学》 CSSCI 北大核心 2023年第3期88-107,共20页
随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,... 随着大规模数据和算式的增长,以及算法的不断优化。围绕生成式AI的前景,存在着支持、反对、中立等不同态度,这些态度背后隐含着认知根源、经济考量和权利思考。立足于法律3.0的融贯性治理注重国家法律、行政规制和技术方案之间的融贯,为治理生成式AI提供了思路和方向。融贯性治理中的“融贯”,既是规范性融贯,强调法律规范的内在一致性和统一性,也是整体性融贯,强调将技术方案融入规范,进而使得技术方案与不同层级规范和引领这些规范的原则与价值得以融贯。在面对以GPT为代表的生成式AI时,可以尝试将AI和区块链作为技术方案对其进行治理,也可以通过自我规制和外在约束培育建设“有道德的”AI,还可以通过“市场+规则”助力生成式AI的发展。生成式AI所涉及的法律问题在现有的法律体系框架内基本能得到有效应对,对于它带来的现实、急迫且法律没有明确规定的问题,可以进行融贯性治理。 展开更多
关键词 生成式AI 生成式预训练模型(GPT) 融贯性治理 法律3.0
在线阅读 下载PDF
油气大模型发展方向及实施关键路径 被引量:4
3
作者 熊华平 赵春宇 刘万伟 《大庆石油地质与开发》 CAS 北大核心 2024年第3期214-224,共11页
大庆油田历经60余年的勘探开发,面临着理论创新、技术突破和现场实施等诸多挑战。在这个过程中,传统的数学模型在处理复杂的地质数据和工程数据时已接近瓶颈,需要探索新的研究范式。近年来,大模型特别是多模态生成式大模型作为一种基于... 大庆油田历经60余年的勘探开发,面临着理论创新、技术突破和现场实施等诸多挑战。在这个过程中,传统的数学模型在处理复杂的地质数据和工程数据时已接近瓶颈,需要探索新的研究范式。近年来,大模型特别是多模态生成式大模型作为一种基于大数据、大模型的智能化技术,能够处理大规模、异源、异构的数据,有望更好地应对油气勘探开发领域中的复杂性和不确定性,重塑油气领域的数字化流程,成为油气行业新的发展契机。从油气大模型产生的技术需求、时代背景出发,探索油气大模型技术体系,对油气大模型建设提出设想。具体方案从建设目标、建设原则开始,设计技术架构、给出实施路径,横向上规划4个实施阶段、纵向上规划4个研究领域,设计15项关键任务,进一步为大模型落地,规划了数据库、知识库、成果库和协同研究4项配套体系建设、制定13项关键技术,逐步推进大模型对“数”“图”“体”的理解,最后对大模型在未来油气研究领域的应用场景进行了展望。 展开更多
关键词 油气大模型 多模态 生成式预训练模型 垂直领域模型 指令微调
在线阅读 下载PDF
生成式人工智能的责任能力研究 被引量:97
4
作者 袁曾 《东方法学》 CSSCI 北大核心 2023年第3期18-33,共16页
以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要... 以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要从责任的角度确定何种主体应为生成式人工智能技术的决策负责。生成式人工智能已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成式人工智能自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责任能力应当进行明确限定。通过“穿透人工智能面纱”的归责原则以及相应的配套机制构建,促使发展“负责任的人工智能”成为符合人类共同利益的选择。 展开更多
关键词 生成式人工智能 ChatGPT 训练生成式聊天模型 责任能力 法律人格 大型语言模型
在线阅读 下载PDF
一种建立在GPT-2模型上的数据增强方法 被引量:3
5
作者 张小川 陈盼盼 +2 位作者 邢欣来 杨昌萌 滕达 《智能系统学报》 CSCD 北大核心 2024年第1期209-216,共8页
针对句子分类任务常面临着训练数据不足,而且文本语言具有离散性,在语义保留的条件下进行数据增强具有一定困难,语义一致性和多样性难以平衡的问题,本文提出一种惩罚生成式预训练语言模型的数据增强方法(punishing generative pre-train... 针对句子分类任务常面临着训练数据不足,而且文本语言具有离散性,在语义保留的条件下进行数据增强具有一定困难,语义一致性和多样性难以平衡的问题,本文提出一种惩罚生成式预训练语言模型的数据增强方法(punishing generative pre-trained transformer for data augmentation,PunishGPT-DA)。设计了惩罚项和超参数α,与负对数似然损失函数共同作用微调GPT-2(generative pre-training 2.0),鼓励模型关注那些预测概率较小但仍然合理的输出;使用基于双向编码器表征模型(bidirectional encoder representation from transformers,BERT)的过滤器过滤语义偏差较大的生成样本。本文方法实现了对训练集16倍扩充,与GPT-2相比,在意图识别、问题分类以及情感分析3个任务上的准确率分别提升了1.1%、4.9%和8.7%。实验结果表明,本文提出的方法能够同时有效地控制一致性和多样性需求,提升下游任务模型的训练性能。 展开更多
关键词 自然语言处理 人工智能 数据增强 句子分类 少样本 序列到序列 生成式训练语言模型 双向编码器表征模型
在线阅读 下载PDF
基于可控性解释的混合数据增强框架
6
作者 孙泽辰 肖义胜 +2 位作者 李俊涛 张民 周国栋 《软件学报》 北大核心 2025年第4期1604-1619,共16页
先前的预训练语言模型已在众多自然语言理解任务中展现了其卓越的性能.然而,它们常表现出捷径学习的问题,即学习了非鲁棒性特征与标签之间的虚假关联,导致模型在不同于训练分布的测试场景中的泛化能力不佳.近期,生成式预训练大模型在理... 先前的预训练语言模型已在众多自然语言理解任务中展现了其卓越的性能.然而,它们常表现出捷径学习的问题,即学习了非鲁棒性特征与标签之间的虚假关联,导致模型在不同于训练分布的测试场景中的泛化能力不佳.近期,生成式预训练大模型在理解任务中的出色表现引起了广泛的关注,但它们是否受到捷径学习的影响尚未被充分研究.以LLaMA系列模型与FLAN-T5模型为代表,探究生成式预训练大模型在多个自然语言理解任务中的捷径学习现象.研究结果表明,近期流行的生成式大模型仍然存在捷径学习的问题.进而,提出针对生成式预训练大模型的捷径学习问题的缓解策略——基于可控性解释的混合数据增强框架.该框架以数据为中心,基于模型生成的可控性解释数据与部分原始提示性数据构造小规模混合数据集,开展模型微调.在3个具有代表性的自然语言理解任务中的大量实验结果表明,使用该框架所构造的数据集训练模型能够有效缓解模型的捷径学习问题,提升模型在分布外测试场景中的鲁棒性与泛化能力,同时不牺牲甚至提升模型在分布内测试场景中的性能.代码已公开发布在https://github.com/Mint9996/HEDA. 展开更多
关键词 捷径学习 生成式训练语言模型 自然语言理解
在线阅读 下载PDF
基于GPT模型的人工智能数据伪造风险研究 被引量:9
7
作者 孙雷亮 《信息安全研究》 CSCD 2023年第6期518-523,共6页
随着人工智能技术的快速发展应用,人工智能生成内容(artificial intelligence generated context,AIGC)的出现极大地解放了生产力,以ChatGPT为代表的产品风靡全球,其多样化的应用场景催动商业化迅猛发展.以人工智能数据伪造风险为研究目... 随着人工智能技术的快速发展应用,人工智能生成内容(artificial intelligence generated context,AIGC)的出现极大地解放了生产力,以ChatGPT为代表的产品风靡全球,其多样化的应用场景催动商业化迅猛发展.以人工智能数据伪造风险为研究目标,将GPT模型作为研究对象,通过分析其已经暴露或出现的安全隐患,重点研究数据伪造可能出现的原因及其实现过程.结合传统网络空间安全、数据安全攻防对抗方法,对基于模型微调导致数据伪造的实践进行了研究,推测人工智能广泛商业化后部分数据伪造利用场景.最后提出应对数据伪造风险的方法和建议,为将来人工智能大规模应用前规避数据伪造风险提供参考. 展开更多
关键词 人工智能 人工智能生成内容 生成式预训练模型 ChatGPT 数据伪造 攻防对抗
在线阅读 下载PDF
ChatGPT对循证医学发展的影响、挑战及其应对 被引量:9
8
作者 罗姚 谈在祥 《医学与哲学》 北大核心 2024年第12期16-21,共6页
探讨了ChatGPT在循证医学领域的应用潜力,分析其可能带来的挑战并提出应对策略。ChatGPT作为当前最火爆的人工智能技术之一,在推动循证医学学科发展方面发挥着重要作用,尤其体现在:扩展原始证据来源、提高证据获取的效率、协助医患共同... 探讨了ChatGPT在循证医学领域的应用潜力,分析其可能带来的挑战并提出应对策略。ChatGPT作为当前最火爆的人工智能技术之一,在推动循证医学学科发展方面发挥着重要作用,尤其体现在:扩展原始证据来源、提高证据获取的效率、协助医患共同决策、促进循证医学教育和科普教育。当前ChatGPT正处于“技术萌芽期”,需要警惕其带来的风险,例如“证据污染”、算法黑箱、安全漏洞和数字鸿沟等。为了平衡ChatGPT在循证医学领域的积极作用与潜在风险,笔者从ChatGPT的伦理规范、证据来源、专家验证和使用规范等角度给出了对策和建议。 展开更多
关键词 生成式训练对话模型 循证医学 人工智能 自然语言处理
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部