楼主: 人工智能-AI
597 0

基于字分类的中文分词的研究 [推广有奖]

  • 0关注
  • 10粉丝

会员

学术权威

71%

还不是VIP/贵宾

-

威望
0
论坛币
25 个
通用积分
0.0584
学术水平
0 点
热心指数
0 点
信用等级
0 点
经验
37770 点
帖子
3776
精华
0
在线时间
853 小时
注册时间
2017-9-5
最后登录
2018-4-11

楼主
人工智能-AI 在职认证  发表于 2017-12-27 19:20:06 |AI写论文

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
摘要:中文分词是自然语言处理的前提和基础,利用基于字分类的方法实现中文分词,就是将中文分词想象成字分类的过程。把字放入向前向后相邻两个字这样的一个语境下根据互信息统计将字分成四种类别,即跟它前面结合的字,跟它后面结合的字,跟它前后结合的字,独立的字。在分词的过程中采用了t-测试算法,一定程度上解决了歧义问题。以人民日报为语料库进行训练和测试,实验结果表明,该方法能够很好地处理歧义问题,分词的正确率达到了90.3%,有了明显的提高。

原文链接:http://www.cqvip.com//QK/97969A/201107/38546253.html

送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:中文分词 cqvip HTML 大家共享 学术交流 中文分词 互信息 t-测试 分类

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
jg-xs1
拉您进交流群
GMT+8, 2025-12-27 04:33