期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
大模型幻觉:人机传播中的认知风险与共治可能 被引量:36
1
作者 张铮 刘晨旭 《苏州大学学报(哲学社会科学版)》 CSSCI 北大核心 2024年第5期171-180,共10页
大模型在人机交互中可能产生“幻觉”,即生成的内容看似合理但与事实相悖。幻觉问题的产生并非偶然,由技术发展的局限性和用户输入的提示词与情境等共同所致。大模型幻觉对人的认知和信息传播构成风险,并对“数据范式”下的知识生产和... 大模型在人机交互中可能产生“幻觉”,即生成的内容看似合理但与事实相悖。幻觉问题的产生并非偶然,由技术发展的局限性和用户输入的提示词与情境等共同所致。大模型幻觉对人的认知和信息传播构成风险,并对“数据范式”下的知识生产和隐性知识的价值显露带来挑战;同时,认知依赖下人机交互影响着人类的思维模式和判断力。为应对这些挑战,可通过提高训练数据的质量并明晰治理标准、增强模型透明性和可信性、实现有监督的机器动态自治等策略完善大模型未来发展方向。大模型幻觉无法完全避免,从另一个角度看,幻觉现象在创造性领域可能激发创新思维,为人类文化与艺术的发展注入新的活力与动力。 展开更多
关键词 模型幻觉 认知风险 知识生产 人机协同治理 人机传播
在线阅读 下载PDF
大语言模型综述与展望 被引量:14
2
作者 秦小林 古徐 +1 位作者 李弟诚 徐海文 《计算机应用》 北大核心 2025年第3期685-696,共12页
大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参... 大语言模型(LLM)是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练,是当前生成式人工智能(AI)技术的核心。与传统语言模型相比,LLM通过大量的算力、参数和数据支持,展现出更强的语言理解与生成能力,广泛应用于机器翻译、问答系统、对话生成等众多任务中并表现卓越。现有的综述大多侧重于LLM的理论架构与训练方法,对LLM的产业级应用实践及技术生态演进的系统性探讨仍显不足。因此,在介绍LLM的基础架构、训练技术及发展历程的基础上,分析当前通用的LLM关键技术和以LLM为底座的先进融合技术。通过归纳总结现有研究,进一步阐述LLM在实际应用中面临的挑战,包括数据偏差、模型幻觉和计算资源消耗等问题,并对LLM的持续发展趋势进行展望。 展开更多
关键词 大语言模型 智能体 自然语言处理 检索增强生成 模型幻觉
在线阅读 下载PDF
基于大语言模型的企业碳排放分析与知识问答系统
3
作者 韩明 曹智轩 +2 位作者 王敬涛 段丽英 王剑宏 《计算机工程与应用》 北大核心 2025年第16期370-382,共13页
随着全球气候变化日益严重,企业碳排放分析成为国际关注的焦点,针对通用大语言模型(large language model,LLM)知识更新滞后,增强生成架构在处理复杂问题时缺乏专业性与准确性,以及大模型生成结果中幻觉率高的问题,通过构建专有知识库,... 随着全球气候变化日益严重,企业碳排放分析成为国际关注的焦点,针对通用大语言模型(large language model,LLM)知识更新滞后,增强生成架构在处理复杂问题时缺乏专业性与准确性,以及大模型生成结果中幻觉率高的问题,通过构建专有知识库,开发了基于大语言模型的企业碳排放分析与知识问答系统。提出了一种多样化索引模块构建方法,构建高质量的知识与法规检索数据集。针对碳排放报告(政策)领域的知识问答任务,提出了自提示检索增强生成架构,集成意图识别、改进的结构化思维链、混合检索技术、高质量提示工程和Text2SQL系统,支持多维度分析企业可持续性报告,为企业碳排放报告(政策)提供了一种高效、精准的知识问答解决方案。通过多层分块机制、文档索引和幻觉识别功能,确保结果的准确性与可验证性,降低了LLM技术在系统中的幻觉率。通过对比实验,所提算法在各模块的协同下在检索增强生成实验中各指标表现优异,对于企业碳排放报告的关键信息抽取和报告评价,尤其是长文本处理具有明显的优势。 展开更多
关键词 大语言模型(LLM) 知识问答系统 模型幻觉 信息检索 提示学习
在线阅读 下载PDF
大语言模型在决策咨询工作中的应用解析
4
作者 黄吉海 周雷 王延飞 《智库理论与实践》 北大核心 2025年第4期20-24,共5页
[目的/意义]大语言模型在决策咨询领域具有较大应用潜力,分析其面临的精准性与可靠性问题,提出针对性解决方案具有重要意义。[方法/过程]本文立足当前大语言模型的特点,分析探讨了其在决策咨询应用中暴露出的模型幻觉、持续学习能力不... [目的/意义]大语言模型在决策咨询领域具有较大应用潜力,分析其面临的精准性与可靠性问题,提出针对性解决方案具有重要意义。[方法/过程]本文立足当前大语言模型的特点,分析探讨了其在决策咨询应用中暴露出的模型幻觉、持续学习能力不足、多模态输入输出融合困难、可解释性和价值观对齐等问题。[结果/结论]研究提出了构建“知识增强+专家验证”、优化增量训练、强化符号逻辑与大模型融合、打造全息信息管道以及建设语料约束体系的五维应对框架,推动大语言模型赋能决策咨询。 展开更多
关键词 大语言模型 决策咨询 应用解析 模型幻觉 持续学习
在线阅读 下载PDF
大语言模型安全现状与挑战 被引量:54
5
作者 赵月 何锦雯 +3 位作者 朱申辰 李聪仪 张英杰 陈恺 《计算机科学》 CSCD 北大核心 2024年第1期68-71,共4页
大语言模型因其出色的文本理解和生成能力,被广泛应用于自然语言处理领域并取得了显著成果,为社会各界带来了巨大的便利。然而,大语言模型自身仍存在明显的安全问题,严重影响其应用的可信性与可靠性,是安全学者需广泛关注的问题。文中... 大语言模型因其出色的文本理解和生成能力,被广泛应用于自然语言处理领域并取得了显著成果,为社会各界带来了巨大的便利。然而,大语言模型自身仍存在明显的安全问题,严重影响其应用的可信性与可靠性,是安全学者需广泛关注的问题。文中针对大语言模型自身的安全问题,首先从基于大语言模型的恶意应用问题切入,阐述提示注入攻击及其相应的防御方法;其次,介绍大语言模型幻觉带来的可信问题,对幻觉问题的量化评估、幻觉来源和缓解技术是当前研究的重点;然后,大语言模型隐私安全问题强调了个人及企业数据的保护问题,一旦在进行人机交互时泄露商业秘密和个人敏感信息,将可能引发严重的安全风险,当前研究主要通过可信执行环境和隐私计算技术来进行风险规避;最后,提示泄露问题关注攻击者如何窃取有价值的提示词进行获利或通过个性化提示词泄露个人隐私。提升大语言模型的安全性需要综合考虑模型隐私保护、可解释性研究以及模型分布的稳定性与鲁棒性等问题。 展开更多
关键词 大语言模型 人工智能安全 恶意应用 模型幻觉 隐私安全 提示泄露
在线阅读 下载PDF
“s梦到p”蕴含“s想象p”——一种综合梦境想象模型的解释
6
作者 李香莲 《现代哲学》 CSSCI 北大核心 2022年第3期108-114,共7页
梦和做梦不仅是传统本体论、知识论、伦理学的研究对象,也是新近心灵哲学和认知神经科学的研究议题。那么,当我们说“s梦到p”时,到底是在说什么?无论是正统的梦境幻觉模型,还是新近的三种想象模型,都没有揭示出梦或做梦的本质。梦境幻... 梦和做梦不仅是传统本体论、知识论、伦理学的研究对象,也是新近心灵哲学和认知神经科学的研究议题。那么,当我们说“s梦到p”时,到底是在说什么?无论是正统的梦境幻觉模型,还是新近的三种想象模型,都没有揭示出梦或做梦的本质。梦境幻觉模型主张,某人梦到p意味着某人相信p,但这是对“s梦到p”的错误刻画;已有的三种想象模型虽然坚持“s梦到p”蕴含“s想象p”,却无法合理地得出这一结论。本文认为,在理论上,通过合取“想象”的梦经验观与“假装相信”的梦信念观,可以得到一种“综合梦境想象模型”,由此合理解释“s梦到p”蕴含“s想象p”。 展开更多
关键词 梦境幻觉模型 梦境怀疑论 梦境想象模型 综合梦境想象模型
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部