期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于BERT-BiGRU-CNN模型的短文本分类研究
被引量:
4
1
作者
陈雪松
邹梦
《吉林大学学报(信息科学版)》
CAS
2023年第6期1048-1053,共6页
针对传统语言模型不能解决深层双向表征和分类模型不能充分捕获文本显著特征的问题,提出了一种基于BERT-BiGRU-CNN(Bidirectional Encoder Representation from Transformers-Bidirectional Gating Recurrent Unit-Convolutional Neural...
针对传统语言模型不能解决深层双向表征和分类模型不能充分捕获文本显著特征的问题,提出了一种基于BERT-BiGRU-CNN(Bidirectional Encoder Representation from Transformers-Bidirectional Gating Recurrent Unit-Convolutional Neural Networks)的文本分类模型。首先,该模型使用BERT预训练语言模型进行文本表示;其次,将BERT的输出数据输入BiGRU中,以捕获文本的全局语义信息;然后,将BiGRU层的结果输入CNN中,捕获文本局部语义特征;最后,将特征向量输入Softmax层得到分类结果。实验采用中文新闻文本标题数据集,结果表明,基于BERT-BiGRU-CNN的文本分类模型在数据集上的F_(1)值达到0.948 5,优于其他基线模型,证明了BERT-BiGRU-CNN模型可提升短文本的分类性能。
展开更多
关键词
文本分类
bert预训练模型
双向门控循环单元
卷积神经网络
在线阅读
下载PDF
职称材料
基于BERT的煤矿事故风险LEC评价与优化研究
被引量:
1
2
作者
于博帆
严嘉兴
《现代矿业》
CAS
2024年第1期217-221,共5页
为了提高煤矿事故安全评价的准确性和客观性,针对煤矿安全风险评估中常用的LEC评价法可能出现的不客观以及评价过程中L值评价过于复杂的现状,提出了一种基于BERT预训练模型代替人工进行打分并对L值的评价指标进行优化的方法。通过专家...
为了提高煤矿事故安全评价的准确性和客观性,针对煤矿安全风险评估中常用的LEC评价法可能出现的不客观以及评价过程中L值评价过于复杂的现状,提出了一种基于BERT预训练模型代替人工进行打分并对L值的评价指标进行优化的方法。通过专家打分的事故分析对模型进行训练,得到预测模型,利用预测模型对需要评价的数据进行预测打分,再结合优化后的L值公式得到事故发生可能性的分值。研究结果表明:BERT模型在经过训练后预测效果较好,与专家判断指标的综合重合度高达92.09%,且改良后的L值判断公式综合了环境物体因素、施工操作人员因素和安全管理因素,在判断时可以较为客观地体现出潜在风险发生的可能性,该研究为煤矿行业中作业条件的危险性评估提供了一种新的思路和方法。
展开更多
关键词
LEC评价法
bert预训练模型
L值优化
煤矿安全评价
在线阅读
下载PDF
职称材料
面向多文档的机器阅读理解模型
3
作者
李春豹
《信息技术与信息化》
2023年第6期110-113,共4页
机器阅读理解是自然语言处理领域中基础且重要的研究课题,其目标是让机器具备从文本数据中获取知识或回答给定问题的能力。近年来,研究人员已经提出了多种面向单文档的机器阅读理解模型,并取得了一定的效果。然而,在实际应用场景中,通...
机器阅读理解是自然语言处理领域中基础且重要的研究课题,其目标是让机器具备从文本数据中获取知识或回答给定问题的能力。近年来,研究人员已经提出了多种面向单文档的机器阅读理解模型,并取得了一定的效果。然而,在实际应用场景中,通常是先提出问题,然后再根据大规模非结构化文本数据对问题进行作答;此外,针对同一答案,不同用户提问时的问题描述也不相同,这对模型的泛化能力提出了较高的要求。针对上述问题,提出了一种面向多文档的机器阅读理解模型。模型遵循先检索后阅读的思想。在检索阶段,提出了一种基于规则和最长公共子串的排序方法,从文档库中选出前N个最相关的文档;在阅读阶段,基于Bert预训练模型提取的特征,结合文本语义特征和注意力机制提高问题核心词在问题特征、问题-篇章交互特征中的权重,采用指针网络预测每篇文档中的答案跨度,并综合考虑文档检索得分和预测答案得分,给出评分最高的答案。在中文阅读理解数据集CMRC上,该模型达到76.29%的EM分数和89.77%的F1分数,获得较好实验效果。
展开更多
关键词
机器阅读理解
最长公共子串
bert预训练模型
语义相似度特征
注意力机制
在线阅读
下载PDF
职称材料
基于自然语言处理的评教文本分类与分析
4
作者
陈国心
《西安航空学院学报》
2021年第3期91-96,共6页
学生评教数据是学生对教学过程的态度最直接的反应,也是教师了解学生需求,提高教学质量的有效途径。本文利用某高校真实的学生评教数据,基于自然语言处理探索学生在教学过程中所关注的教学环节。首先,对在线教育现状进行说明,结合自然...
学生评教数据是学生对教学过程的态度最直接的反应,也是教师了解学生需求,提高教学质量的有效途径。本文利用某高校真实的学生评教数据,基于自然语言处理探索学生在教学过程中所关注的教学环节。首先,对在线教育现状进行说明,结合自然语言处理模型的特点,将数据进行预处理;其次,通过BERT预训练模型、参数微调将学生教学评论分为5个维度;最后,再通过统计分析的方法,将结果可视化呈现。分析结果表明,学生最关注教师授课过程中的备课环节,其次关注的是课堂管理,关注度最低的是对作业评讲环节,分析结果可为教师改善教学过程提供参考依据。
展开更多
关键词
教育现代化
评教
自然语言处理
bert预训练模型
在线阅读
下载PDF
职称材料
题名
基于BERT-BiGRU-CNN模型的短文本分类研究
被引量:
4
1
作者
陈雪松
邹梦
机构
东北石油大学电气信息工程学院
出处
《吉林大学学报(信息科学版)》
CAS
2023年第6期1048-1053,共6页
基金
国家自然科学基金资助项目(61402099,61702093)。
文摘
针对传统语言模型不能解决深层双向表征和分类模型不能充分捕获文本显著特征的问题,提出了一种基于BERT-BiGRU-CNN(Bidirectional Encoder Representation from Transformers-Bidirectional Gating Recurrent Unit-Convolutional Neural Networks)的文本分类模型。首先,该模型使用BERT预训练语言模型进行文本表示;其次,将BERT的输出数据输入BiGRU中,以捕获文本的全局语义信息;然后,将BiGRU层的结果输入CNN中,捕获文本局部语义特征;最后,将特征向量输入Softmax层得到分类结果。实验采用中文新闻文本标题数据集,结果表明,基于BERT-BiGRU-CNN的文本分类模型在数据集上的F_(1)值达到0.948 5,优于其他基线模型,证明了BERT-BiGRU-CNN模型可提升短文本的分类性能。
关键词
文本分类
bert预训练模型
双向门控循环单元
卷积神经网络
Keywords
text classification
bidirectional encoder representation from transformers(
bert
)word embedding
bidirectional gating recurrent unit(BiGRU)
convolutional neural networks(CNN)
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于BERT的煤矿事故风险LEC评价与优化研究
被引量:
1
2
作者
于博帆
严嘉兴
机构
中国地质大学(武汉)地质调查研究院
出处
《现代矿业》
CAS
2024年第1期217-221,共5页
文摘
为了提高煤矿事故安全评价的准确性和客观性,针对煤矿安全风险评估中常用的LEC评价法可能出现的不客观以及评价过程中L值评价过于复杂的现状,提出了一种基于BERT预训练模型代替人工进行打分并对L值的评价指标进行优化的方法。通过专家打分的事故分析对模型进行训练,得到预测模型,利用预测模型对需要评价的数据进行预测打分,再结合优化后的L值公式得到事故发生可能性的分值。研究结果表明:BERT模型在经过训练后预测效果较好,与专家判断指标的综合重合度高达92.09%,且改良后的L值判断公式综合了环境物体因素、施工操作人员因素和安全管理因素,在判断时可以较为客观地体现出潜在风险发生的可能性,该研究为煤矿行业中作业条件的危险性评估提供了一种新的思路和方法。
关键词
LEC评价法
bert预训练模型
L值优化
煤矿安全评价
Keywords
LEC evaluation method
bert
pre-training model
L value optimization
coal mine safe⁃ty evaluation
分类号
TD79 [矿业工程—矿井通风与安全]
在线阅读
下载PDF
职称材料
题名
面向多文档的机器阅读理解模型
3
作者
李春豹
机构
中国电子科技集团公司第十研究所
出处
《信息技术与信息化》
2023年第6期110-113,共4页
文摘
机器阅读理解是自然语言处理领域中基础且重要的研究课题,其目标是让机器具备从文本数据中获取知识或回答给定问题的能力。近年来,研究人员已经提出了多种面向单文档的机器阅读理解模型,并取得了一定的效果。然而,在实际应用场景中,通常是先提出问题,然后再根据大规模非结构化文本数据对问题进行作答;此外,针对同一答案,不同用户提问时的问题描述也不相同,这对模型的泛化能力提出了较高的要求。针对上述问题,提出了一种面向多文档的机器阅读理解模型。模型遵循先检索后阅读的思想。在检索阶段,提出了一种基于规则和最长公共子串的排序方法,从文档库中选出前N个最相关的文档;在阅读阶段,基于Bert预训练模型提取的特征,结合文本语义特征和注意力机制提高问题核心词在问题特征、问题-篇章交互特征中的权重,采用指针网络预测每篇文档中的答案跨度,并综合考虑文档检索得分和预测答案得分,给出评分最高的答案。在中文阅读理解数据集CMRC上,该模型达到76.29%的EM分数和89.77%的F1分数,获得较好实验效果。
关键词
机器阅读理解
最长公共子串
bert预训练模型
语义相似度特征
注意力机制
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于自然语言处理的评教文本分类与分析
4
作者
陈国心
机构
西安航空学院理学院
出处
《西安航空学院学报》
2021年第3期91-96,共6页
文摘
学生评教数据是学生对教学过程的态度最直接的反应,也是教师了解学生需求,提高教学质量的有效途径。本文利用某高校真实的学生评教数据,基于自然语言处理探索学生在教学过程中所关注的教学环节。首先,对在线教育现状进行说明,结合自然语言处理模型的特点,将数据进行预处理;其次,通过BERT预训练模型、参数微调将学生教学评论分为5个维度;最后,再通过统计分析的方法,将结果可视化呈现。分析结果表明,学生最关注教师授课过程中的备课环节,其次关注的是课堂管理,关注度最低的是对作业评讲环节,分析结果可为教师改善教学过程提供参考依据。
关键词
教育现代化
评教
自然语言处理
bert预训练模型
Keywords
education modernization
evaluation of teaching
natural language processing
bert
pre-training models
分类号
G43 [文化科学—教育技术学]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于BERT-BiGRU-CNN模型的短文本分类研究
陈雪松
邹梦
《吉林大学学报(信息科学版)》
CAS
2023
4
在线阅读
下载PDF
职称材料
2
基于BERT的煤矿事故风险LEC评价与优化研究
于博帆
严嘉兴
《现代矿业》
CAS
2024
1
在线阅读
下载PDF
职称材料
3
面向多文档的机器阅读理解模型
李春豹
《信息技术与信息化》
2023
0
在线阅读
下载PDF
职称材料
4
基于自然语言处理的评教文本分类与分析
陈国心
《西安航空学院学报》
2021
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部