期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
TASSM_BS:基于Bi-LSTM和Self-Attention的藏文自动分句方法
被引量:
2
1
作者
才让叁智
多拉
+2 位作者
格桑多吉
洛桑嘎登
仁增多杰
《中文信息学报》
CSCD
北大核心
2023年第5期44-52,共9页
自动分句在自然语言处理中具有重要的应用价值,是机器翻译、句法分析和语义分析等任务的重要前期工作环节。当前藏文自动分句中采用的基于词典的分句方法,以及基于词典和统计模型相结合的分句方法因受句尾词兼类现象和数据稀疏等问题的...
自动分句在自然语言处理中具有重要的应用价值,是机器翻译、句法分析和语义分析等任务的重要前期工作环节。当前藏文自动分句中采用的基于词典的分句方法,以及基于词典和统计模型相结合的分句方法因受句尾词兼类现象和数据稀疏等问题的影响,分句效率较低。对此,该文提出了一种基于Bi-LSTM和Self-Attention的藏文自动分句方法。通过实验对比,该方法的宏准确率、宏召回率和宏F1值分别到达了97.7%、98.06%和97.88%,其结果优于所有对比方法。另外,在实验过程中还发现,当模型使用序列前端截补方式定长的数据时,其性能优于使用后端截补方式定长的数据;当模型使用基于Skip-gram的音节字表示时,其性能优于基于CBOW和随机生成的音节字表示。
展开更多
关键词
藏文句子
分句
tsrm_bs模型
在线阅读
下载PDF
职称材料
题名
TASSM_BS:基于Bi-LSTM和Self-Attention的藏文自动分句方法
被引量:
2
1
作者
才让叁智
多拉
格桑多吉
洛桑嘎登
仁增多杰
机构
西北民族大学中国语言文学学部
西藏大学信息科学技术学院
青海师范大学藏语智能信息处理及应用国家重点实验室
出处
《中文信息学报》
CSCD
北大核心
2023年第5期44-52,共9页
基金
国家社会科学基金(21VJXT013)
国家自然科学基金(62066042)
+3 种基金
西藏大学校级培育基金项目(ZDCZJH19-19,ZDCZJH19-20,ZDCZJH18-16)
西藏大学在职攻读博士学位资助项目(藏财预指[2022]1号)
西藏自治区自然基金(XZ202101ZR0108G)
青海师范大学中青年科研基金(2019zr013)。
文摘
自动分句在自然语言处理中具有重要的应用价值,是机器翻译、句法分析和语义分析等任务的重要前期工作环节。当前藏文自动分句中采用的基于词典的分句方法,以及基于词典和统计模型相结合的分句方法因受句尾词兼类现象和数据稀疏等问题的影响,分句效率较低。对此,该文提出了一种基于Bi-LSTM和Self-Attention的藏文自动分句方法。通过实验对比,该方法的宏准确率、宏召回率和宏F1值分别到达了97.7%、98.06%和97.88%,其结果优于所有对比方法。另外,在实验过程中还发现,当模型使用序列前端截补方式定长的数据时,其性能优于使用后端截补方式定长的数据;当模型使用基于Skip-gram的音节字表示时,其性能优于基于CBOW和随机生成的音节字表示。
关键词
藏文句子
分句
tsrm_bs模型
Keywords
Tibetan sentence
sentence segmentation
TASSM_BS model
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
TASSM_BS:基于Bi-LSTM和Self-Attention的藏文自动分句方法
才让叁智
多拉
格桑多吉
洛桑嘎登
仁增多杰
《中文信息学报》
CSCD
北大核心
2023
2
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部