楼主: DL-er
570 0

一种基于N—gram模型和机器学习的汉语分词算法 [推广有奖]

  • 0关注
  • 6粉丝

会员

学术权威

74%

还不是VIP/贵宾

-

威望
0
论坛币
15 个
通用积分
1.0351
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
38540 点
帖子
3853
精华
0
在线时间
813 小时
注册时间
2017-9-5
最后登录
2018-6-30

楼主
DL-er 在职认证  发表于 2017-9-29 15:00:05 |只看作者 |坛友微信交流群|倒序 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要:汉语的自动分词,是计算机中文信息处理领域中一个基础而困难的课题.该文提出了一种将汉语文本句子切分成词的新方法,这种方法以N-gram模型为基础,并结合有效的Viterbi搜索算法来实现汉语句子的切词.由于采用了基于机器学习的自组词算法,无需人工编制领域词典.该文还讨论了评价分词算法的两个定量指标,即查准率和查全率的定义,在此基础上,用封闭语料库和开放语料库对该文提出的汉语分词模型进行了实验测试,表明该模型和算法具有较高的查准率和查全率.

原文链接:http://www.cqvip.com//QK/91130A/200111/5669715.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:机器学习 gram RAM 学习的 cqvip 汉语分词算法 N-gram模型 机器学习 中文信息处理

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-4-28 12:06