用HMM做中文分词.docx
(35.36 KB, 需要: 1 个论坛币)
自然语言处理之中文分词
基于大规模语料库的机器学习方法,这是目前应用比较广泛、效果较好的解决方案.用到的统计模型是HMM。
|
楼主: shucai2003
|
2560
0
[数据挖掘理论与案例] 用HMM做中文分词 |
加好友,备注cda京ICP备16021002号-2 京B2-20170662号
京公网安备 11010802022788号
论坛法律顾问:王进律师
知识产权保护声明
免责及隐私声明


