期刊文献+

基于N_gram模型解决分词歧义的中文分词算法 被引量:2

在线阅读 下载PDF
导出
摘要 汉语分词是中文信息处理的基础。本文提出了一种利用N_gram模型处理最大匹配法分词中歧义的方法。首先找出正向最大匹配分词和逆向最大匹配分词结果不同的短语,然后利用N_gram模型对两个结果的概率进行计算,选取概率高的一组为最优结果。通过测试,该方法能够有效解决分词中的交集型歧义,具有较高的准确率。
作者 冯伟
出处 《中国科技期刊数据库 科研》 2017年第1期00087-00088,共2页
  • 相关文献

同被引文献16

引证文献2

二级引证文献17

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部