期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
系统性金融风险研究:现状、局限性与新路径框架——基于大语言模型应用视角
1
作者
高尚
《征信》
北大核心
2025年第9期46-54,共9页
系统性金融风险研究对于维护国家金融安全、完善金融监管体系等具有重要意义。系统回顾并梳理系统性金融风险的研究路径,当前系统性金融风险研究范式在数据可得性、度量方法、预测效果、跨学科研究以及研究视角方面存在局限性,而大语言...
系统性金融风险研究对于维护国家金融安全、完善金融监管体系等具有重要意义。系统回顾并梳理系统性金融风险的研究路径,当前系统性金融风险研究范式在数据可得性、度量方法、预测效果、跨学科研究以及研究视角方面存在局限性,而大语言模型作为一个兼具定性与定量分析、局部与系统分析的新研究范式,可以很好弥补现有系统性金融风险研究范式的局限性。基于此,探索大语言模型应用于系统性金融风险研究的可行性,构建基于大语言模型驱动的系统性金融风险研究新框架,明确提出了基于大语言模型系统性金融风险研究的两条研究子路径,即与传统经济学研究范式融合的研究子路径以及与计算实验金融学融合的研究子路径。
展开更多
关键词
大
语言
模型
系统性金融风险
计算实验金融学
机器学习
增强语言模型
在线阅读
下载PDF
职称材料
基于语言模型增强的中文关系抽取方法
被引量:
5
2
作者
薛平
李影
吴中海
《中文信息学报》
CSCD
北大核心
2023年第7期32-41,共10页
中文关系抽取任务旨在识别中文文本中实体对的语义关系。基于预训练语言模型的方法达到了当前最优结果。得益于大规模的训练语料,预训练语言模型能够学习到训练语料中的语言知识,提高了中文关系抽取模型的泛化能力,但其庞大的参数规模...
中文关系抽取任务旨在识别中文文本中实体对的语义关系。基于预训练语言模型的方法达到了当前最优结果。得益于大规模的训练语料,预训练语言模型能够学习到训练语料中的语言知识,提高了中文关系抽取模型的泛化能力,但其庞大的参数规模需要消耗大量的存储和计算资源。为此,该文提出了基于语言模型增强的中文关系抽取方法,该方法基于多任务学习范式,促进轻量级的中文关系抽取模型学习预训练语言模型中的语言知识。该文在三个中文关系抽取数据集上的实验结果表明了基于语言模型增强的中文关系抽取方法的有效性,仅使用预训练语言模型1%的参数即可达到其95%的性能。
展开更多
关键词
中文关系抽取
预训练
语言
模型
语言
模型
增强
在线阅读
下载PDF
职称材料
题名
系统性金融风险研究:现状、局限性与新路径框架——基于大语言模型应用视角
1
作者
高尚
机构
上海金融与发展实验室
出处
《征信》
北大核心
2025年第9期46-54,共9页
文摘
系统性金融风险研究对于维护国家金融安全、完善金融监管体系等具有重要意义。系统回顾并梳理系统性金融风险的研究路径,当前系统性金融风险研究范式在数据可得性、度量方法、预测效果、跨学科研究以及研究视角方面存在局限性,而大语言模型作为一个兼具定性与定量分析、局部与系统分析的新研究范式,可以很好弥补现有系统性金融风险研究范式的局限性。基于此,探索大语言模型应用于系统性金融风险研究的可行性,构建基于大语言模型驱动的系统性金融风险研究新框架,明确提出了基于大语言模型系统性金融风险研究的两条研究子路径,即与传统经济学研究范式融合的研究子路径以及与计算实验金融学融合的研究子路径。
关键词
大
语言
模型
系统性金融风险
计算实验金融学
机器学习
增强语言模型
Keywords
Large Language Model
systemic financial risk
computational experimental finance
machine learning
enhanced language model
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
F832 [经济管理—金融学]
在线阅读
下载PDF
职称材料
题名
基于语言模型增强的中文关系抽取方法
被引量:
5
2
作者
薛平
李影
吴中海
机构
北京大学软件与微电子学院
北京大学软件工程国家工程研究中心
出处
《中文信息学报》
CSCD
北大核心
2023年第7期32-41,共10页
基金
国家重点研究与发展计划(2017YFB1002000)。
文摘
中文关系抽取任务旨在识别中文文本中实体对的语义关系。基于预训练语言模型的方法达到了当前最优结果。得益于大规模的训练语料,预训练语言模型能够学习到训练语料中的语言知识,提高了中文关系抽取模型的泛化能力,但其庞大的参数规模需要消耗大量的存储和计算资源。为此,该文提出了基于语言模型增强的中文关系抽取方法,该方法基于多任务学习范式,促进轻量级的中文关系抽取模型学习预训练语言模型中的语言知识。该文在三个中文关系抽取数据集上的实验结果表明了基于语言模型增强的中文关系抽取方法的有效性,仅使用预训练语言模型1%的参数即可达到其95%的性能。
关键词
中文关系抽取
预训练
语言
模型
语言
模型
增强
Keywords
Chinese relation extraction
pre-trained language model
language model enhancement
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
系统性金融风险研究:现状、局限性与新路径框架——基于大语言模型应用视角
高尚
《征信》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
基于语言模型增强的中文关系抽取方法
薛平
李影
吴中海
《中文信息学报》
CSCD
北大核心
2023
5
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部